Microsoft hat sich von Dryad verabschiedet – seinem Projekt für die Verarbeitung großer Datenmengen. Es setzt künftig bei Windows Azure und Windows Server nur noch auf Apache Hadoop. Erst vor einem Monat hatte der Softwarehersteller angekündigt, eine eigene Distribution des Frameworks anzubieten. „Hadoop hat sich zu einer großartigen Plattform entwickelt – für die Analyse unstrukturierter Daten sowie großer Datenmengen zu günstigen Preisen“, heißt es in einem Eintrag im Windows HPC Team Blog.

Demzufolge hat Microsoft ein geringfügiges Update zum jüngsten Testbuild von Dryad hinzugefügt – als Teil von Windows High Performance Computing Pack 2008 R2 Service Pack 3. „Das wird allerdings die letzte Preview sein, und wir planen nicht, eine finale Version herauszubringen.“

Microsoft arbeitet mit HortonWorks zusammen, um Hadoop-Distributionen für Windwos Azure und Windows Server zu entwickeln. Eine Community Technology Preview (CTP) der Azure-Version soll noch vor Ende des Jahres erscheinen, ein Test-Build von Windows Server dürfte 2012 folgen.

Dryad – auch LINQ to HPC genannt – war dazu gedacht, die Verarbeitung großer Datenmengen über die Cluster von Windows-Servern hinweg zu erledigen. Es sollte eine Plattform für Entwickler bieten, um Anwendungen zu programmieren, die große, unstrukturierte Informationen verarbeiten können. Wenige Tage nach seiner Hadoop-Ankündigung hatte Microsoft im Oktober einen fast fertigen Test-Build von Dryad bereitgestellt.

Bill Gates hatte Dryad im Jahr 2006 erstmals gegenüber der New York Times erwähnt. Dann blieb es lange still um das Projekt. Im Sommer 2009 wurde an Wissenschaftler Code von Dryad und DryadLINQ ausgegeben. Mitte August 2010 tauchte eine Roadmap auf, derzufolge Dryad 2011 veröffentlicht werden sollte. Ende Dezember 2010 verteilte Microsoft eine Preview seiner Engine an Entwickler. Sie enthielt Testversionen von Dryad, DSC und DryadLINQ.

Dryad war ursprünglich Microsofts Antwort auf Techniken wie Google MapReduce oder Apache Hadoop. Entwickelt wurde es als Microsoft-Research-Projekt. Die Forscher wollten Methoden konzipieren, um Programme für verteiltes und paralleles Rechnen zu entwickeln, die sich von kleinen Computerclustern bis zu riesigen Rechenzentren skalieren lassen.

ZDNet.de Redaktion

Recent Posts

Alphabet übertrifft die Erwartungen im ersten Quartal

Der Umsatz steigt um 15 Prozent, der Nettogewinn um 57 Prozent. Im nachbörslichen Handel kassiert…

2 Tagen ago

Microsoft steigert Umsatz und Gewinn im dritten Fiskalquartal

Aus 61,9 Milliarden Dollar generiert das Unternehmen einen Nettoprofit von 21,9 Milliarden Dollar. Das größte…

2 Tagen ago

Digitalisierung! Aber wie?

Mehr Digitalisierung wird von den Unternehmen gefordert. Für KMU ist die Umsetzung jedoch nicht trivial,…

2 Tagen ago

Meta meldet Gewinnsprung im ersten Quartal

Der Nettoprofi wächst um 117 Prozent. Auch beim Umsatz erzielt die Facebook-Mutter ein deutliches Plus.…

3 Tagen ago

Maximieren Sie Kundenzufriedenheit mit strategischem, kundenorientiertem Marketing

Vom Standpunkt eines Verbrauchers aus betrachtet, stellt sich die Frage: Wie relevant und persönlich sind…

3 Tagen ago

Chatbot-Dienst checkt Nachrichteninhalte aus WhatsApp-Quellen

Scamio analysiert und bewertet die Gefahren und gibt Anwendern Ratschläge für den Umgang mit einer…

3 Tagen ago