Categories: Unternehmen

Deduplizierung: Storagekosten schnell und nachhaltig senken

„Doppelt hält besser“, heißt es landläufig, wenn man denkt, dass etwas außerordentlich gründlich erledigt wurde. Gerade in schwierigen Zeiten stellt sich aber schnell die Frage, ob das wirklich wahr ist: Reicht einmal gut gemacht nicht doch aus? Und ist „doppelt“ vielleicht einfach auch doppelt so teuer? Im Zusammenhang mit Datenspeicherung stellen sich diese Fragen derzeit besonders viele IT-Verantwortliche.

Das Zauberwort, das eine Antwort verspricht, ist „Deduplizierung“. Wie wichtig das eigentlich schon lange im Markt diskutierte Thema aktuell ist, zeigt die Übernahmeschlacht um Data Domain zwischen NetApp und EMC: Die beiden Firmen haben in den vergangenen Wochen erbittert um die Übernahme des Deduplizierungsspezialisten gekämpft – obwohl beide entsprechende Funktionen schon länger selbst anbieten. Offenbar lassen diese sich aber mit den Technologien von Data Domain noch erheblich verbessern, denn schließlich bezahlt EMC für den Anbieter rund 2,1 Milliarden Dollar.

Ein ganz schöner Batzen Geld, wenn man bedenkt, dass Data Domain 2008 gerade mal einen Umsatz 274,1 Millionen und einen Gewinn von 8,4 Millionen (nach GAAP) erwirtschaften konnte. Allerdings konnte der Umsatz im Vergleich zum Vorjahr mehr als verdoppelt werden (plus 122 Prozent), was zeigt, dass die Nachfrage nach Deduplizierung rasant steigt. Was hat es aber genau damit auf sich?

Deduplizierung hat viel mit der Komprimierung von Daten gemeinsam. Man könnte jedoch sagen, dass im Vergleich zu Komprimierung, wo im übertragenen Sinne mit der Nagelfeile gearbeitet wird, Deduplizierung mit dem Hobel zu Werke geht. Deduplizierung sucht nach langen, gleichen Byte-Sequenzen und ersetzt diese wenn möglich durch einen Verweis, statt sie nochmals zu speichern. Der Clou dabei ist, dass dies für Anwendungen und Anwender vollkommen transparent geschieht. Sie greifen wie gewohnt auf die Dateien zu.

Besonders augenfällig sind die Vorteile der Deduplizierung beim Backup: Wird beispielsweise von einem Laufwerk jede Woche eine Sicherungskopie erstellt, entsteht dadurch eine riesige Menge an mehrfach vorhandenen Daten. Mit Algorithmen für die Deduplizierung lassen sich dagegen nur die tatsächlich veränderten Bereiche neu sichern, auf bereits vorhandene wird lediglich verwiesen. Dadurch lassen sich Speicherkapazitäten in großem Umfang einsparen. Wie viel genau, ist jedoch stark davon abhängig, um welche Art von Daten es sich handelt.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Mai-Patchday: Microsoft schließt zwei aktiv ausgenutzte Zero-Day-Lücken

Sie betreffen Windows 10, 11 und Windows Server. In SharePoint Server steckt zudem eine kritische…

3 Stunden ago

Firefox 126 erschwert Tracking und stopft Sicherheitslöcher

Mozilla verteilt insgesamt 16 Patches für Firefox 125 und älter. Zudem entfernt der Browser nun…

5 Stunden ago

Supercomputer-Ranking: Vier europäische Systeme in den Top Ten

Einziger Neueinsteiger ist das Alps-System in der Schweiz. Die weiteren Top-Ten-Systeme aus Europa stehen in…

19 Stunden ago

Angriffe mit Banking-Malware auf Android-Nutzer nehmen weltweit zu

Im vergangenen Jahr steigt ihre Zahl um 32 Prozent. Die Zahl der betroffenen PC-Nutzer sinkt…

20 Stunden ago

Künstliche Intelligenz fasst Telefonate zusammen

Die App satellite wird künftig Telefongespräche in Echtzeit datenschutzkonform mit Hilfe von KI zusammenfassen.

24 Stunden ago

MDM-Spezialist Semarchy stellt Data-Intelligence-Lösung vor

Als Erweiterung von Master-Data-Management ermöglicht es die Lösung, den Werdegang von Daten verstehen und sie…

1 Tag ago