Microsoft und Dell bieten „Hybrid-Cloud in a Box“ an

von Björn Greif

Die Lösung richtet sich an Kunden, die eine auf Windows Azure basierende Hybrid-Cloud im eigenen Rechenzentrum betreiben wollen. Das "Dell Hybrid Cloud System for Microsoft" kombiniert Server und Switches von Dell mit vorkonfigurierter Cloud-Platform-System-Standard-Software von Microsoft. Die Preise beginnen bei 9000 Dollar pro Monat. weiter

Windows Server Container-Host installieren und einrichten

von Thomas Joos

Mit Windows Server Container integriert Microsoft die Docker-Container-Technologie in Windows Server 2016. Die Installation und Einrichtung ist nicht ganz einfach, aber für jeden Administrator und Entwickler machbar. weiter

Microsoft zeigt Linux-basierte Switching-Lösung

von Stefan Beiersmann

Das Azure Cloud Switch genannte OS ist für Switches in Rechenzentren gedacht. Es basiert auf dem Switch Abstraction Interface des Open Compute Project. Microsoft nutzt das Betriebssystem allerdings nur intern. weiter

HP und Intel kündigen Allianz für High Performance Computing an

von Björn Greif

Sie soll Unternehmen aller Größen den Zugang zu HPC-Lösungen erleichtern. Dazu bauen die Partner ihr bestehendes Center of Excellence in Grenoble aus und eröffnen ein neues in Houston, um auch den US-Markt zu bedienen. Dort erhalten Kunden Hilfe bei Planung, Entwicklung, Einsatz und Verwaltung. weiter

Schwaches Leistungswachstum: Tianhe-2 weiterhin schnellster Supercomputer

von Björn Greif

Das System des National Supercomputing Center im chinesischen Guangzho kann die Spitzenposition in der Top500-Liste zum fünften Mal verteidigen. Generell setzt sich der Trend zu einem deutlich langsameren Performance-Wachstum im HPC-Bereich fort. Die USA und China verlieren, Europa holt auf. weiter

SuperMUC: Feierliche Inbetriebnahme der Phase 2

von Rainer Schneider

In Garching bei München wurde nun offiziell Phase 2 des Supercomputers SuperMUC eingeleitet. Die Ausbaustufe bringt unter anderem eine Steigerung der Rechenleistung um 3,6 Petaflops auf 6,8 Petaflops. Der nach wie vor warmwassergekühlte Höchstleistungsrechner wird etwa auf dem Gebiet der Evolutionsbiologie eingesetzt. weiter

LRZ: Leistung von SuperMUC steigt auf 6,8 Petaflops

von Stefan Beiersmann

Das wird durch 6144 zusätzliche Xeon-E5-Prozessoren von Intel ermöglicht. Zwischen 2015 und 2017 betragen die Investitions- und Betriebskosten rund 49 Millionen Euro. Schon zur Inbetriebnahme am 20. Juli 2012 galt das System mit damals 3,2 Petaflops als schnellster Rechner Europas. weiter

Box schließt Cloud-Partnerschaft mit IBM

von Stefan Beiersmann

Beide Unternehmen bündeln ihre Angebote für Enterprise-Kunden. Box nutzt künftig Lösungen von IBM für die Datenanalyse und die Inhaltsverarbeitung. Außerdem können Box-Kunden nun ihre Daten auch in der IBM-Cloud ablegen. weiter

Anzeige: Industrie 4.0 – warum sich der CIO bald die Hände schmutzig machen wird

von Rittal

Das Konzept von Industrie 4.0 wird dazu führen, dass sich immer mehr IT in die Fabrikhallen verlagert. Selbstkonfigurierende Maschinen oder automatische Fertigungsstraßen verlangen nach zuverlässigen IT-Komponenten, die auch sehr große Datenmengen schnell und sicher verarbeiten. Gleichzeitig muss diese IT auch in heißen und staubigen Produktionshallen zuverlässig funktionieren. Auf den CIO warten daher ganz neue Herausforderungen in rauen Umgebungen. weiter

Amazon testet Tesla-Akkutechnik in Rechenzentren

von Florian Kalenda

In Kalifornien sollen 4,8 Megawattstunden Energiespeicher ungestörten Betrieb sicherstellen. Auch ermöglicht dies eine Zwischenspeicherung erneuerbarer Energien. Tesla sieht Akkus als zweites Standbein und bietet neuerdings Systeme mit 7 oder 10 kWh für Wohnhäuser und Büros an. weiter

Amazon Web Services mit Umsatzsprung

von Stefan Beiersmann

Die Cloudsparte nimmt 1,57 Milliarden Dollar ein. Das entspricht einem Plus von 43 Prozent gegenüber dem Vorjahreszeitraum. Das gute Ergebnis lässt den Kurs der Amazon-Aktie im nachbörslichen Handel um 6,8 Prozent steigen. weiter

Fujifilm und IBM realisieren Magnetband mit 220 Terabyte

von Florian Kalenda

Das entspricht einer Dichte von 123 Gigabit auf einer Fläche von einem Quadratzoll. Sie nutzten dafür feinere Barium-Ferrit-Partikeln und einen Schreibkopf mit einer Genauigkeit von weniger als sechs Nanometern. Die Technik wird nun cloudkompatibel gemacht. weiter

HGST zeigt 10-Terabyte-Festplatte

von Stefan Beiersmann

Sie kommt angeblich schon im zweiten Quartal in den Handel. Die für Rechenzentren entwickelte HDD nutzt die Technologien HelioSeal und Shingled Magnetic Recording. Letztere soll durch überlappende Datenspuren eine höhere Datendichte erlauben. weiter

Deutsche Bank und HP schließen milliardenschweren Outsourcing-Vertrag

von Björn Greif

Er hat eine Laufzeit von zehn Jahren und sieht die Modernisierung der weltweiten IT der Deutschen Bank durch HP vor. HP soll Betriebsplattform, Datenspeicherung und Hosting bereitstellen. IT-Architektur, Anwendungsentwicklung und Datensicherheit bleiben hingegen in den Händen der Bank. weiter