PCs werden dank Open-Source immer billiger, doch ihre Qualität ist in Gefahr

Gartner sieht den Markt für PCs vor einem Wendepunkt: Nur Microsoft hält die Preise noch hoch, ansonsten fluten kostenlose Programme die Rechner. Damit brechen die bisherigen Geschäftsmodelle zusammen - und die Qualität der Geräte wird zweifelhaft.

„Die kommenden zwei Jahren bilden einen Wendepunkt für die PC-Industrie“, prophezeit George Shiffler, Forschungsleiter für die Client-Plattformen bei Gartner. Damit meint er vor allem, dass Europa und die USA als Hauptstützen des PC-Massenmarktes wegzufallen drohen. Doch so einfach ist das nicht. Tatsächlich deuten die Zeichen in viele verschiedene Richtungen.

Beispiel Dell: Lange Zeit galt das Konzept des Direktvertriebs in Verbindung mit der optimierten Zulieferkette als unschlagbar. Tatsächlich werden in der so genannten Fertigungsstätte in Limerick vor allem der Karton gewechselt und dem Wunsch des Kunden entsprechend vielleicht noch eine andere Karte eingesteckt. Doch inzwischen sitzen die Konkurrenten Dell im Nacken. Carly Fiorinas Rosskur festigte HPs Position als Nummer 2 der Branche. Und Big Blue fand mit dem Verkauf an den chinesischen Lenovo-Konzern seinen Weg, die Produktionskosten zu senken.

Auch im Server-Geschäft – das anderen Regeln folgt und nicht Gegenstand des Artikels ist – scheint der Höhenflug gebremst worden zu sein. Auffällig ist, wie Dell derzeit nach neuen Märkten fahndet. Erstmals testet das Unternehmen in den USA den Verkauf über eigene Läden und bürdet sich damit genau die Kosten auf, die es bei den Mitbewerbern bislang verachtet. Zudem präsentiert Dell jetzt Rechner, die leistungsmäßig für die Spiele-Community optimiert sind und sich mit einfachen Handgriffen erweitern lassen. Offensichtlich hofft das Unternehmen hier auf eine Klientel, die erst auf die Leistung und dann auf den Geldbeutel schaut. Der monströse Henkelmann namens „XPS 2010“ mit 20-Zoll-Breitbandbildschirm, 9 kg Gewicht und Lederimitat-Verkleidung (schwarz) lässt sich nur als Experiment mit unklarer Zielgruppe deuten.

Aber vielleicht ist das Gerät ja gar nicht für den hiesigen Markt gedacht. Schließlich liegen die viel versprechenden Wachstumsraten ja in den „Emerging Markets“, während die schmalen Wachstumsraten hier zu Lande durch den Preisverfall aufgefressen werden. Aber auch hier spricht Gartner ein klares Verdikt: In den Wachstumsmärkten Südamerika, Osteuropa, Russland, China und Indien zählt vor allem der Preis. Dort sind keine Pseudo-Designer-Henkelmänner für 2900 Euro aufwärts gefragt, auch nicht die in Europa und den USA beliebten Doppelherz-Notebooks, sondern preiswerte Desktop-Rechner. Um fast 20 Prozent soll dort der Absatz mit solchen Systemen steigen.

Themenseiten: Analysen & Kommentare, IT-Business

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

14 Kommentare zu PCs werden dank Open-Source immer billiger, doch ihre Qualität ist in Gefahr

Kommentar hinzufügen
  • Am 10. Juli 2006 um 13:58 von Real

    Gartner hat also die Qualitaet von OS untersucht ?
    oder wie kommen die zu der Meinung:Das laesst nix gutes fuer die Qualitaet erahnen !?
    Kaffeesatzlesen waere billiger gewesen und genauso viel Wert wie das Geschreibel.

    • Am 10. Juli 2006 um 17:11 von Szostek

      AW: Gartner hat also die Qualitaet von OS untersucht ?
      Find ich auch, in keinem Satz wird konkrett darauf eingegangen was denn so schlecht an OS sein soll.Und überhaupt, OS läuft meist stabiler als MS Produkte (Wir errinern uns alle an die Tausende BlueScreens und Abstürze in unserem Leben….)

    • Am 11. Juli 2006 um 0:12 von B@uleK

      AW: AW: Gartner hat also die Qualitaet von OS untersucht ?
      jO, sehe ich genau so. hab den artikel zwar nur überflogen, weil mich schon die überschrift irgendwie *angekozt* hat, aber warum soll unter open source die qualität leiden !?

      oder war das jetzt mehr auf die hardware bezogen, oder wie oder was ..?

      das einzigst positive was ich dem artikel ablesen konnte, ist das microsoft nen abgang machen kann und die welt viellt, aber auch nur viellt.! doch nicht unter geht :-|

    • Am 11. Juli 2006 um 13:44 von Karl Schranner

      AW: AW: AW: Gartner hat also die Qualitaet von OS untersucht ?
      Vielen Dank dass Sie diesen Artikel kommentieren, obwohl Sie ihn nach eigenem Bekunden "nur überflogen" haben. Haben Sie noch mehr profundes Expertenwissen parat?

      Mit freundlichen Grüßen

    • Am 11. Juli 2006 um 15:17 von Monopolhasser

      AW: AW: Gartner hat also die Qualitaet von OS untersucht ?
      Genau: "Zeit, dass sich was dreht"

  • Am 11. Juli 2006 um 22:15 von Krauss

    Open-Source
    Mit großem Interesse haben ich den Beitrag gelesen und bin entschieden verwirrt. Meint Gartner nun die qualitative Verarbeitung eines PCs oder die "Qualität" eines Betriebssystems?

    Meiner Meinung nach tut sich sicherlich ein Umbruch anmelden. Der Grund warum ein PC immer günstiger wird ist doch derer, dass die Anwendungen auch mit einem günstigeren System zu erfüllen sind.
    Betrachtet man Windows so beruht es im Gegensatz zu DOS auf einem GUI in der Bedienung. Dies macht die Handhabung für den endnutzer einfacher und bietet darüber hinaus mehr Funktionalität im Alltag.
    Es fordert jedoch hochwertigere Komponenten um diese GUI zu realisieren (Grafikleistung, etc.).
    Daraus ziehe ich meinen Schluss, dass das zentrale Elemente des „höherwertigen“ Systems der Zukunft eines neuen Betriebssystems mit neuen Funktionen und einer besseren Produktivität fordert.

    Warten wir also ab bis wir die vollen 64 Bit mit Windows XP nutzen können oder auch bis Windows Longhorn sein Weg in die Geschäfte anbahnt.

    • Am 12. Juli 2006 um 12:02 von Flurry Man

      AW: Open-Source
      Du meinst, mit 64 Bit wird alles besser? so wie seinerzeit beim Umstieg auf 32 Bit? Das erzählen die Marketingabteilungen auch immer – als wenn Stabilität und Benutzbarkeit von Anwendungen irgendetwas mit der Breite des Speicherbusses zu tun hätten. Träum weiter.

    • Am 17. Juli 2006 um 4:46 von SoIstDas

      AW: Open-Source
      "Warten wir also ab bis wir die vollen 64 Bit mit Windows XP nutzen können oder auch bis Windows Longhorn sein Weg in die Geschäfte anbahnt."

      kannst Du mir sagen, wozu Du konkret die 64 bit brauchst ? Außer dass es Dein System erstmal viel langsamer macht ?

      16 bit war wirklich klein, das stimmt (2 hoch 16 = 65536).
      32 Bit dagegen sollte niemanden mit normalen Bedürfnissen in Bedrängnis führen ( 2 hoch 32 = 4.294.967.296 )
      (soviel Speicher ist addressierbar )
      64 Bit bedeutet erstmal dass Du doppelt soviel Hauptspeicher brauchst um dieselbe Leistung zu erzielen. Weil nämlich alles doppelt so groß ist.
      Schau mal in Deinen Taskmanager wieviel Ram Deine Programme so durchschnittliche benötigen, wenn also mal EIN Programm an die 4 -10 GB Grenze kommen sollte, dann kannst Dir ja mal langsam überlegen auf 64 Bit umzusteigen ;-)
      Außer von Entwicklern, welche Software für die Entwicklung von Flugzeugen entwickeln, hab ich noch von niemanden gehört dass jemand 64 bit bräuchte ;-)
      (Dort benötigt man wohl viele Punkte pro Quadratmillimeter Flugzeughaut um eine Simulation zu starten) Die Anzahl der Adressen im Speicher überschreitet also die 4 Millarden Grenze)
      Aber kannst Dich natürlich trotzdem auf 64 bit freuen, wenn Du dies möchtest ;-)

    • Am 24. Juli 2006 um 8:20 von A. Miethe

      AW: Open-Source
      MS Windows – egal welche Version: wenn der Explorer hängen bleibt (z.B. Lesefehler auf CD) dann hagelt es Bluescreens und wenn man den Exploder manuell abschießt dann bootet man damit gleich den ganzen PC – welches Hirn programmiert sowas? Durch welche Qualitätskontrollen rutscht das durch? Das Thema Qualität hat sich damit schon erledigt und unter Betriebssystem verstehe ich etwas anderes, siehe Open Source.

  • Am 12. Juli 2006 um 10:50 von Thomas

    Hat eigentlich schonmal jemand …
    untersucht – also im Nachhinein – wieviele dieser ganzen Vorhersagen und Prognosen dieser in die Zukunft blickenden Firmen wie Gartner & Co auch tatsächlich so eingetroffen sind? Würde mich tatsächlich mal interessieren. Ich meine, wenn sagen wir mal 80% aller Prognosen von Gartner so tatsächlich eintreffen wär’s ja ne Überlegung wert as mal zu lesen – aber ehrlich gesagt glaube ich nicht daran.

  • Am 14. Juli 2006 um 11:54 von Markus Plieschnegger

    Open Source = schlecht?
    Ich habe den Artikel aufmerksam gelesen, doch drängen sich mir einige Fragen auf: Es wird einige Male angedeutet, dass die Qualität unter der Konkurrenz aus dem Open Source Bereich leiden würde, Argumente werden leider keine geliefert. Für mich ist genau das der weitverbreitete billig/gratis=Müll Irrglaube. Open Source hat nachweisbar dazu beigetragen, die Qualität der jeweiligen Softwarepakete drastisch zu erhöhen, man darf nicht vergessen, dass PC- Systeme immer komplexer werden und das erst die konsequente Umsetzung von Qualitätskriterien in der Softwareentwicklung dazu geführt hat, dass dennoch gute Programme entwickelbar sind.

    Eher stellt sich mir die Frage, ob die Microsoft- Produkte evtl. Qualitätseinbußen hinnehmen müssen, da das Monopol am Softwaremarkt immer mehr ins Wanken gerät. Moderne Linux- Systeme sind nicht nur kostenlos, sie sind auch großteils nicht mehr schwieriger zu bedienen, sind weiters sicherer und laufen stabiler. Auch gibt es für schon fast für jede Problemstellung eine Lösung am Open Source Markt. Wenn man sich vom Schemadenken "ich muss unbedingt die Programme x und y benutzen" verabschiedet, wird man auch ohne horrenden finanziellen Einsatz sehr weit kommen.

    Ich sehe hier nur Vorteile für den Software- als auch für den PC- Markt im Allgemeinen. Qualitätsbedenken- noch dazu ohne diese argumentativ zu untermauern- halte ich für unangebracht.

  • Am 16. Juli 2006 um 13:37 von seven

    …Babies werden doch von Klapperstörchen gepracht?
    PCs sollen zukünftig ohne Betriebssystem und ohne Software verkauft werden -> jeder soll sich dann die Produkte kaufen und installieren, die er für richtig hält.

    Das große Problem ist eben, dass der Markt und somit überwiegend die "Dummen" bestimmen, welche Produkte sich durchsetzen. Der Handy-Markt ist doch dafür das beste Beispiel.

    Dieser Artikel ist genau für diese "dummen" Käufer geschrieben. Ich denke, dass it diesem ZDNet-Artikel das Computerbild Nivau auf eine beeindruckende Weise markant unterschritten wurde.

  • Am 20. Juli 2006 um 21:54 von Karl Graus

    Qualität?
    Microsoft ist einfach nur schlecht,
    Gartner ist unseriös,
    das wird in Zukunft nur noch schlimmer.
    Ob Software etwas kostet, ist kein Kriterium.
    Der Artikel ist einfach blöde Werbung!

  • Am 25. Juli 2006 um 13:56 von Peter

    Die Kernaussage des Artikels ist:
    Das Preisgefüge wird weiter abrutschen, die Margen daher geringer. Daraus wird -analog zu der Entwicklung bei den Faxgeräten – bei den Herstellern die Neigung wachsen, Rendite über Einsparungen im Bereich des EK und der Verarbeitung zu erzielen was ergo zu einer Reduktion der Qualität der Produkte führen wird.

    Eine Tendenz übrigens die schon seit 6-7 Jahren sichtbar ist (zuerst bei den Desktops, seit zwei Jahren auch bei den Notebooks).

    Insofern war die Meldung weder neu noch originell sondern lediglich ein Versuch von Gartner sich mal wieder ins Gespräch zu bringen, frei nach dem Motto: "Halloo, uns gibts auch noch"…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *