Categories: Unternehmen

Speicher-Services als Damm gegen die Datenflut

Wann bekommen die Anwender endlich ein Terabyte Speicherkapazität am Desktop? Die Frage ist dem Cheftechniker Hu Yoshida von Hitachi Data Systems (HDS) nicht fremd. Der Trend scheint klar: Die wachsende Anzahl von gespeicherten Daten zu Hause oder im kleinen Büro verlangen nach viel Speicherplatz. Dabei geht es privat derzeit in erster Linie um Fotos oder Musikdateien, eventuell auch um Filmbibliotheken. Auch in kleineren Büros nimmt die digitale Ablage multimedialer Daten stark zu.

Das schreit nach Terabytes am PC. Doch Hu Yoshida – der Vorname aus Japan stammenden Kaliforniers steht für Hubert – widerspricht diesem Gedanken freundlich, aber bestimmt. Nach seiner Ansicht ist es sinnlos, sich mit der nötigen Technik zu befassen, wenn es doch „Speichern als Service“ geben kann. In seinem Blog vom 16. Juni dieses Jahres erklärt er dies: Tatsache sei, dass die Anwender Inhalte speichern müssten, um sie dann abzurufen. Voraussetzung dafür seien vertrauenswürdige Techniken und Dienste, die es heute aber in zunehmenden Maße gebe.

Dem privaten Speicherns in großem Stil, wie es gerne von manchen Marktforschern postuliert wird, erteilt Yoshida eine deutliche Absage. Der Grund: Bei großen Speicherkapazitäten zu Hause oder im kleinen Büro müsste man sich auch mit der gesamten Technik des Speicherns auf hohem Niveau beschäftigen. Das sei nicht möglich, aber auch nicht nötig. Dazu zitierte er die Situation seines Sohnes, der im Silicon Valley bei einem Startup arbeite. Obwohl die Jungs dort Techniker seien, hätten sie längst auf Speicher als Service zurückgegriffen.

Nach Erfahrungen des HDS-Cheftechnikers, der lange Jahre bei IBM im benachbarten Almaden Center in Santa Teresa, der Wiege der Speichertechnik, arbeitete, erneuert sich die Technik des Speicherns in einem Zyklus von etwa drei bis vier Jahren. Dabei geht es nicht nur um die wachsende Dichte und Kapazität der Speichermedien, sondern auch das dazugehörige Controlling. Was nützt einem das physikalische Speichern, wenn anschließend die Inhalte in eine entsprechende Sicherheitsgenauigkeit und Geschwindigkeit nicht abrufen können. Das Controlling sei, so Yoshida, ebenso wichtig wie die Steigerung der Speicherkapazität selbst.

Eine Tendenz zu regelrechten Speicherzentren zuhause oder im kleinen Büro sieht Yoshida nicht. Diese Meinung unterstreichen auch die jüngsten Entwicklungen bei Amazon oder MSN von Microsoft. So bietet Amazon beispielsweise heute schon 500 MByte gemanagte Mietspeicher in seinen Zentren als Service. Microsoft hält mit „kostenlosem“ Speicher im Rahmen seines Onlinedienstes MSN dagegen. Auch der Speicherplatz, der heute schon auf einem Service wie Google-Mail kostenlos angeboten wird, ist erstaunlich groß. Man kann wohl damit rechnen, dass die Anbieter dedizierter Server, wie Strato und 1&1, künftig in Ergänzung auch dedizierte Speicherzentren anbieten werden.

ZDNet.de Redaktion

Recent Posts

Windows 10 und 11: Microsoft behebt Problem mit VPN-Verbindungen

Es tritt auch unter Windows Server auf. Seit Installation der April-Patches treten Fehlermeldungen bei VPN-Verbindungen…

16 Minuten ago

Portfoliomanagement Alfabet öffnet sich für neue Nutzer

Das neue Release soll es allen Mitarbeitenden möglich machen, zur Ausgestaltung der IT beizutragen.

3 Stunden ago

Gefahren im Foxit PDF-Reader

Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.

4 Tagen ago

Bitdefender entdeckt Sicherheitslücken in Überwachungskameras

Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.

4 Tagen ago

Top-Malware in Deutschland: CloudEye zurück an der Spitze

Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…

4 Tagen ago

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

5 Tagen ago