Categories: Unternehmen

Datenflut: Bis 2010 rund 988 Milliarden GByte erwartet

Die digitale Informationsmenge wird sich bis 2010 versechsfachen und dann 988 Exabyte (988 Milliarden GByte) erreichen. Zu diesem Fazit gelangt EMC in der aktuellen Erhebung „The Expanding Digital Universe“. Demnach sind derzeit 70 Prozent der Produzenten von Daten Privatpersonen, die durch das tägliche Telefonieren, Fotografieren, Filmen oder im Internet surfen zu speichernde Informationen erzeugen. Doch durch die prognostizierte Flut an Daten geraten vor allem IT-Abteilungen in Unternehmen unter Druck, so die Studie.

„Auf den ersten Blick könnte man meinen, dass all diese privaten Aktivitäten kaum relevante Auswirkungen auf die Unternehmen selbst haben. Dennoch sind bei rund 85 Prozent der Daten Unternehmen jeder Größe und Branche samt deren IT-Abteilungen in irgendeiner Form in die Speicherung mit einbezogen“, erklärt Anne-Caroline Tanguy, Communications Director bei EMC.

Laut der Tanguy ist damit zu rechnen, dass IT-Abteilungen auch künftig gefordert bleiben, da die Bereitstellung oder Übermittlung von Daten im digitalen Zeitalter eine zunehmende Bedeutung aufweisen. „Vor allem Compliance-Vorgaben wie die Einhaltung von Datenschutzrichtlinien oder der Schutz der Daten durch die Unternehmen selbst machen proaktive Maßnahmen nötig“, so Tanguy weiter.

Allein für 2006 umfasste das „digitale Universum“, wie es der US-Marktforscher IDC nennt, 161 Exabyte, was heruntergerechnet auf jeden der knapp 6,7 Milliarden Menschen etwa 24 GByte an digitalen Daten ausmacht. Angesichts der prognostizierten Wachstumsraten geht EMC davon aus, dass Unternehmen aus technologischer Sicht immer ausgefeiltere Techniken entwickeln müssen, um die täglich neu entstehenden Informationsmengen zu transportieren, zu speichern, zu schützen und nicht zuletzt auch wiederherzustellen.

Für den Standort Deutschland sind mit einem gespeicherten Informationsvolumen von 10 Exabyte für 2006 unter der Annahme eines durchschnittlichen Daten-Wachstums von 57 Prozent bis 2010 rund 70 Exabyte zu erwarten. Tanguy zufolge sind heutige Infrastrukturen jedoch überfordert und nur bedingt dem rasanten Wachstum und der Vielfalt an Formaten wie Inhalten gewachsen.

ZDNet.de Redaktion

Recent Posts

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

14 Stunden ago

Google schließt weitere Zero-Day-Lücke in Chrome

Hacker nutzen eine jetzt gepatchte Schwachstelle im Google-Browser bereits aktiv aus. Die neue Chrome-Version stopft…

16 Stunden ago

Hacker greifen Zero-Day-Lücke in Windows mit Banking-Trojaner QakBot an

Microsoft bietet seit Anfang der Woche einen Patch für die Lücke. Kaspersky-Forscher gehen davon aus,…

17 Stunden ago

Adobe schließt neun kritische Lücken in Reader und Acrobat

Das jüngste Update bringt insgesamt zwölf Fixes. Schadcode lässt sich unter Umständen ohne Interaktion mit…

24 Stunden ago

Fabrikautomatisierung: Siemens integriert SPS-Ebene

Eine softwarebasierte Workstation soll es Ingenieuren erlauben, sämtliche Steuerungen zentral zu verwalten. Pilotkunde ist Ford.

1 Tag ago

Ebury-Botnet infiziert 400.000 Linux-Server weltweit

Kryptodiebstahl und finanzieller Gewinn sind laut ESET-Forschungsbericht die vorrangigen neuen Ziele.

2 Tagen ago