PDC 2009: Microsoft will den Anschluss nicht verlieren

Auch auf der diesjährigen PDC stellt Microsoft neue Produkte vor, die nicht primär mit Softwareentwicklung zu tun haben. Größte Überraschung ist dabei der Internet Explorer 9, über den bisher kaum etwas bekannt war.

Der Browsermarkt stellt sich für Microsoft heute anders da als noch vor fünf Jahren. Damals erschien die erste Version von Firefox aus der Mozilla-Codebasis, die AOL und Netscape nicht mehr sinnvoll verwerten konnten.

Heute steht Microsoft gleich einer großen Anzahl von Konkurrenten gegenüber. Dazu zählen Firefox, Opera, Chrome und Safari. Anders als zu erwarten war, bieten die Microsoft-Konkurrenten eine ausgezeichnete Compliance zu Standards. Wer heute eine Website mit CSS erstellt, läuft kaum Gefahr, dass diese Site inkompatibel zu einem modernen Browser ist. Inkompatibilitäten von verschiedenen Javascript-Implementierungen gleichen AJAX-Libraries aus.

Microsoft hinkt technologisch bei der Unterstützung von Standards hinterher. Die Zeiten, dass Standard ist, was der Internet Explorer unterstützt, sind vorbei. Größtes Manko beim Internet Explorer ist jedoch seine Geschwindigkeit. Immer mehr Websites bieten anspruchsvolle AJAX-Anwendungen, die einen schnellen Browser brauchen.

Mit IE 9 will Microsoft aufholen. Die veröffentlichten Benchmarkergebnisse sind vielversprechend. Einen großen Teil der Performance erreicht Microsoft durch die Verwendung von Direct2D. Das ist ein Joker, den die Konkurrenten noch gar nicht gezogen haben. Auch sie können ihre Performance mit Direct2D unter Aufgabe der Kompatibilität mit Windows XP noch einmal steigern.

Wenige Überraschungen gibt es hingegen bei Office 2010. Dass Microsoft die Elemente des Ribbon-Interface erneut kräftig durchgemischt hat, ist schon seit der Veröffentlichung der Pre-Release-Version bekannt. Einzige Neuerung, die auf der PDC verkündet wurde, ist die Integration von Twitter und sozialen Netzwerken in Outlook.

Mit Windows Azure bietet Microsoft ein interessantes Konzept für Rechenzentrumskunden. Skalierbarkeit, Clustering und Hochverfügbarkeit stehen dabei im Vordergrund. Ob man auf diese Weise den Anbietern von Co-Location und dedizierten Servern Konkurrenz machen kann, muss sich zeigen. Viele Kunden bestehen aus psychologischen Gründen auf eigener Hardware.

Page: 1 2 3 4 5 6

ZDNet.de Redaktion

Recent Posts

Forscher entwickeln Exploits per GPT-4 aus Sicherheitswarnungen

Die Tests basieren auf tatsächlich existierenden Sicherheitslücken. GPT-4 erreicht eine Erfolgsquote von 87 Prozent. Alle…

2 Wochen ago

HostPress für Agenturen und E-Commerce-Betreiber

Höchste Performance-Standards für Webseiten und ein persönlicher, kundenorientierter Premium Support.

2 Wochen ago

V-NAND: Samsung steigert Bit-Dichte um 50 Prozent

Die neue V-NAND-Generation bietet die derzeit höchste verfügbare Bit-Dichte. Samsung steigert auch die Geschwindigkeit und…

2 Wochen ago

Bericht: Google entwickelt App-Quarantäne für Android

Die Sicherheitsfunktion taucht in einer Beta eines kommenden Android-Updates auf. Die Quarantäne beendet unter anderem…

2 Wochen ago

Kostenloser Kurs zum Ausbau von Low-Code-Programmierung

Die OutSystems Developer School hilft Entwicklern, in 2 Wochen komplexe reaktive Anwendungen mit der Low-Code-Plattform…

2 Wochen ago

Cloudflare: DNS-basierte DDoS-Angriffe steigen im ersten Quartal um 80 Prozent

Das Jahr 2024 beginnt laut Cloudflare mit einem Paukenschlag. Die automatischen Systeme des Unternehmens wehren…

2 Wochen ago