Noch in diesem Jahr möglich: Windows Vista auf Linux

Xen erfreut sich bei Server- und Prozessor-Unternehmen umfangreicher Unterstützung. Aber die Einführung der Software hat länger gedauert, als von Red Hat erhofft. Insbesondere hätte man sich die Integration von Xen in den Hauptkernel von Linux gewünscht. Das hätte es Red Hat einfacher gemacht, seinen Quellcodezweig mit dem Linux-Software-Stammbaum zu synchronisieren.

„Es geht nicht so schnell voran, wie wir es uns wünschen. Wir telefonieren wöchentlich mit den Jungs von Xen. Sie machen Fortschritte“, berichtete Stevens. „Es ist ein wenig frustrierend. Wir müssen jetzt ein Produkt raus bringen, das nicht Teil des Stammbaums ist. Da müssen wir durch. Wir wollten RHEL 5 nicht ohne integriertes Xen veröffentlichen, aber jetzt scheint es so, dass wir keine andere Wahl haben.“

Das Problem liegt darin, dass die Xen-Software noch nicht ausgereift ist. „Die Codebasis ändert sich ständig. Der Versuch, etwas integrieren zu wollen, das sich so schnell entwickelt, ist der schwierige Teil“, so Stevens. Er ist immer noch davon überzeugt, dass Xen noch in diesem Jahr in den Hauptkernel integriert werden kann. Dennoch muss Red Hat eine frühere Version in RHEL 5 – vermutlich Version 2.6.17 – nutzen, um Zeit zum Testen zu haben.

Themenseiten: IT-Business, Red Hat, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

2 Kommentare zu Noch in diesem Jahr möglich: Windows Vista auf Linux

Kommentar hinzufügen
  • Am 4. April 2006 um 19:59 von Peter

    Modeerscheinung Virtualisierung
    Zugegebenermaßen ist die Vorstellung, zwei völlig verschiedene Betriebssysteme gleichzeitig auf einem PC laufen zu lassen, faszinierend. Aber wenn’s an’s Eingemachte geht (z.B. Komplizierte Probleme mit Mathematica zu lösen) ist man dann doch über jedes freie Byte und jeden verfügbaren Taktzyklus so froh, dass die eben genannte Faszination sehr schnell an Reiz verliert. Ich vermute daher, dass die Virtualisierung gegebenenfalls sogar bei Serveranwendungen ca. 10 Jahre herumspuken wird, um anschließend dahin zu verschwinden, wo sie hingehört…
    Es war in den letzten Jahren schon schwierig einzuschätzen, ob sich die Betriebssysteme den besseren technischen Möglichkeiten angepasst haben, oder ob umgekehrt der technische Fortschritt notwendig war, um die erhöhten Anforderungen der BS zu erfüllen.

  • Am 5. April 2006 um 0:13 von Realist

    Zurück in die Zukunft
    Nach den sündteuren Mainframes kam das Client-Server-Prinzip – Leistungsverlagerung, um die Hardware und Strukturkosten einzudämmen.

    Damals war die Umstellung gar nicht mal so falsch, aber die Zeiten ändern sich und warum sollte man nicht, bei geänderten Bedingungen, wieder zu alten Strukturen zurückkehren?

    Nachdem heutzutage fast jeder "Schreibmaschinen"-Ersatz bald die Rechenleistung von Grossrechnern (die vor 10-15J.) erreicht hat, ist der einzig richtige Entschluss, zu den Mainframes zurückzukehren.

    Schliesslich ist es Unfug, für Briefe und leichte Kalkulationen einen 4GHz+1Gb-Boliden unterm Tisch zu stehen haben, der sich zu 98% langweilt und nur Strom frisst – und das ist die eigentliche Realität, wenn man sich in den Büros umsieht.

    Aufwendige Anwendungen werden aber sicherlich weiterhin auf einem dediziertem Rechner (evtl. im Client-Server-Modell) betrieben werden.

    Solange keiner eine 100%-Umsetzung des einen oder anderen Lösungsansatz zu realisieren versucht, kann er vom Optimum nicht weit weg sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *