Noch in diesem Jahr möglich: Windows Vista auf Linux

Der weltgrößte Linux-Distributor Red Hat hat verschiedene Schritte bekannt gegeben, mit denen er sein Enterprise-Linux bis zum Ende des Jahres für Virtualisierung bereit machen will. Dann laufen mehrere Betriebssysteme unter der Pinguin-Haube. Bei geringeren Kosten.

Die Erhöhung der Systemauslastung durch das Ausführen mehrerer Betriebssysteme auf einem Rechner ist eigentlich ein alter Hut. Mittlerweile ist diese Technologie aber auch für x86-Rechner marktauglich geworden. Intel und AMD beispielsweise rüsten ihre Prozessoren mit zusätzlichen Funktionen aus, um die Virtualisierungsperformance und -fähigkeiten zu verbessern.

Das größte reine Open-Source-Unternehmen der Welt, Red Hat mit Sitz in Raleigh, North Carolina, ist Partner sowohl von AMD als auch von Intel. Und es setzt ebenso ganz auf das Thema Virtualisierung. Das Unternehmen hat dazu gerade seine Roadmap vorgelegt: Die Geschäftsführung um Mathew Szulik will eine wichtige Virtualisierungskomponente, die Software Xen Hypervisor, in sein nächstes Premium-Produkt Red Hat Enterprise Linux Version 5 integrieren. Xens Virtualisierungssoftware bietet die Basis für den Einsatz mehrerer Betriebssysteme. Erscheinungstermin ist voraussichtlich Ende dieses Jahres. Zu diesem Zeitpunkt soll auch die erste Testversionen von Windows Vista vorliegen, das ansonsten in das nächste Jahr hinein verschoben wurde. So kann es noch 2006 heißen: Vista läuft unter Linux.

Red Hat plant zudem Linux-Testversionen mit vollständigem Xen-Support, ein Pilotprogramm für Kunden, Services für Technologie-Bewertung und -Migration, eine Website mit verschiedenen Schulungsmaterialien sowie eine Libvirt-Bibliothek mit wieder verwendbarer Software für Virtualisierung. Red Hat will außerdem eine Stabilisierung der Xen-Interfaces erreichen, die zur Steuerung der Software verwendet werden.

„Wenn die Auslastung von Servern weniger als 20 Prozent beträgt, und wir diesen Wert auf 80 Prozent steigern können, dann ergibt das nicht nur bei der Hardware erhebliche Einsparungen. Wir benötigen dann auch weniger Platz, verbrauchen weniger Strom, müssen weniger kühlen und sparen an den Systemmanagementkosten“, so Brian Stevens, CTO von Red Hat.

Red Hat geht davon aus, dass Xen mit der Veröffentlichung von Fedora Core 5 umfassender getestet wird. Die Vorgängerversion Fedora Core 4 enthielt ebenfalls Xen, jedoch nur in einer primitiven Form, Diese verlangte Programmierern die manuelle Integration zahlreicher Komponenten ab. „Fedora Core 4 war ein nicht-integriertes Programm“, erklärte Stevens. Bei Fedora Core 5 dagegen liege die Priorität auf der Tauglichkeit für den Massenmarkt. Daher unterstütze Fedora Core 5 Intels Virtualisierungstechnologie und wird zudem AMDs Technik bei ihrer Veröffentlichung unterstützen.

Laut Tim Yeaton, stellvertretender Vice President für Unternehmenslösungen bei Red Hat, wird der nächste konkrete Schritt in diesem Sommer die Veröffentlichung der Betaversion von RHEL 5 sein.

Themenseiten: IT-Business, Red Hat, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

2 Kommentare zu Noch in diesem Jahr möglich: Windows Vista auf Linux

Kommentar hinzufügen
  • Am 4. April 2006 um 19:59 von Peter

    Modeerscheinung Virtualisierung
    Zugegebenermaßen ist die Vorstellung, zwei völlig verschiedene Betriebssysteme gleichzeitig auf einem PC laufen zu lassen, faszinierend. Aber wenn’s an’s Eingemachte geht (z.B. Komplizierte Probleme mit Mathematica zu lösen) ist man dann doch über jedes freie Byte und jeden verfügbaren Taktzyklus so froh, dass die eben genannte Faszination sehr schnell an Reiz verliert. Ich vermute daher, dass die Virtualisierung gegebenenfalls sogar bei Serveranwendungen ca. 10 Jahre herumspuken wird, um anschließend dahin zu verschwinden, wo sie hingehört…
    Es war in den letzten Jahren schon schwierig einzuschätzen, ob sich die Betriebssysteme den besseren technischen Möglichkeiten angepasst haben, oder ob umgekehrt der technische Fortschritt notwendig war, um die erhöhten Anforderungen der BS zu erfüllen.

  • Am 5. April 2006 um 0:13 von Realist

    Zurück in die Zukunft
    Nach den sündteuren Mainframes kam das Client-Server-Prinzip – Leistungsverlagerung, um die Hardware und Strukturkosten einzudämmen.

    Damals war die Umstellung gar nicht mal so falsch, aber die Zeiten ändern sich und warum sollte man nicht, bei geänderten Bedingungen, wieder zu alten Strukturen zurückkehren?

    Nachdem heutzutage fast jeder "Schreibmaschinen"-Ersatz bald die Rechenleistung von Grossrechnern (die vor 10-15J.) erreicht hat, ist der einzig richtige Entschluss, zu den Mainframes zurückzukehren.

    Schliesslich ist es Unfug, für Briefe und leichte Kalkulationen einen 4GHz+1Gb-Boliden unterm Tisch zu stehen haben, der sich zu 98% langweilt und nur Strom frisst – und das ist die eigentliche Realität, wenn man sich in den Büros umsieht.

    Aufwendige Anwendungen werden aber sicherlich weiterhin auf einem dediziertem Rechner (evtl. im Client-Server-Modell) betrieben werden.

    Solange keiner eine 100%-Umsetzung des einen oder anderen Lösungsansatz zu realisieren versucht, kann er vom Optimum nicht weit weg sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *