Dem scheinbar unersättlichen Bedürfnis nach Speicherkapazität muss nicht zwingend mit neuer Technologie entgegengetreten werden. Laut Kevin McIsaac, Forschungsleiter der META Group Asia-Pacific, sollten IT-Unternehmen eine Art von Demand Management einführen.

„Am besten geht man nach wirtschaftlichen Kriterien vor, um mit einem Kostenverteilungssystem die gesamten Kosten für steigendes Speichervolumen auf die Geschäftseinheiten zu verteilen“, meint McIsaac. Hierdurch kann das Verhalten beeinflusst werden, und die IT-Abteilungen können den Bedarf reduzieren. Beispielsweise stellt man Regeln für die Verwendung spezieller Speicherressourcen (zum Beispiel keine Audio- oder Bilddateien auf Dateiservern) und Datenbereinigung durch Verdichtung und Archivierung auf. „Ohne Demand Management können die IT-Abteilungen unmöglich das Verhalten der Anwender beeinflussen“, so McIsaac.

Virtualisierung lockt mit dem Versprechen, einen feinkörnigeren Kontrollmechanismus für die für bestimmte Datentypen verwendeten Speicherarten zu ermöglichen.

Hat ein Kunde beispielsweise eine Frage zu seiner Rechnung, kann diese wahrscheinlich direkt nach Rechnungseingang schnell beantwortet werden. Es ist also vernünftig, diese Daten für eine oder zwei Wochen auf schnellen Speichermedien abzuspeichern, damit das Callcenter die meisten Anfragen schnell beantworten kann. Je länger die Rechnungen zurückliegen, desto unwahrscheinlicher ist eine Rückfrage durch den Kunden, sodass die Daten zu diesen Rechnungen mit der Zeit immer weiter auf langsamere und kostengünstigere Speicher ausgelagert werden können. Gegebenenfalls können oder sollen die Daten ganz gelöscht werden – das ist jedoch eine andere Angelegenheit.

Ohne Demand Management können die IT-Abteilungen unmöglich das Verhalten der Anwender beeinflussen.

Kevin McIsaac, Forschungsleiter der META Group Asia-Pacific

Gleiches gilt für die Tiefe der Details. Wenn ein Verantwortlicher nach Erhalt eines Berichts keine weiteren Daten abruft, wird er diese wahrscheinlich auch nicht später abrufen. Dies trifft für die meisten Daten zu; der Unterschied liegt lediglich darin, wie schnell Daten veralten.

Analysten berichten, dass etwa 60 bis 70 Prozent der Daten auf Primärspeichern innerhalb eines Zeitraums von einem halben Jahr nicht abgerufen werden, so Mike Palermo, Geschäftsführer der Application Storage Manager Business Group von Storagetek. Dieser Ineffizienz kann jedoch nur durch Automatisierung der Datenspeicherung auf dem Primärspeicher sowie des Transfers auf andere Speicher entgegengewirkt werden, wenn eine Senkung der Betriebskosten erzielt werden soll.

Page: 1 2 3 4 5 6 7 8 9 10 11 12 13 14

ZDNet.de Redaktion

Recent Posts

Sicherheitslücken in Überwachungskameras und Video-Babyphones

Schwachstellen aus der ThroughTek Kaylay-IoT-Plattform. Dringend Update-Status der IoT-Geräte prüfen.

6 Tagen ago

AWS investiert Milliarden in Cloud-Standort Brandenburg

Fast acht Milliarden Euro fließen in die deutsche Region der AWS European Sovereign Cloud. Das…

7 Tagen ago

DSL oder Kabel – Welcher Anschluss passt zu Ihnen?

Internet in den eigenen vier Wänden ist heutzutage nicht mehr wegzudenken. Denn egal, ob Homeoffice…

7 Tagen ago

Hochsichere Software für Electronic Knee Boards der Bundeswehrpiloten

Im Rahmen der umfassenden Digitalisierung der Bundeswehr ersetzen Electronic Knee Boards die herkömmlichen Handbücher von…

7 Tagen ago

Mai-Patchday: Microsoft schließt zwei aktiv ausgenutzte Zero-Day-Lücken

Sie betreffen Windows 10, 11 und Windows Server. In SharePoint Server steckt zudem eine kritische…

7 Tagen ago

Firefox 126 erschwert Tracking und stopft Sicherheitslöcher

Mozilla verteilt insgesamt 16 Patches für Firefox 125 und älter. Zudem entfernt der Browser nun…

7 Tagen ago