PCs werden dank Open-Source immer billiger, doch ihre Qualität ist in Gefahr

Zudem könnten die Bemühungen um den 100-Dollar-PC zu Erfolgen in Ländern führen, für die sie gar nicht gedacht sind. Hier entsteht eine leicht zu bedienende Open-Source-Umgebung, deren Kostenvorteile sich auch die Privat- und Firmenanwender in den reichen Industrienationen nicht entgehen lassen werden. Dabei hilft, dass der unselig ausgegangene Netscape-Prozess gegen Microsoft wenigstens ein positives Ergebnis hat. Der Konzern aus Redmond hat sein Monopol bei vorinstallierter Software verloren. Google, Skype und andere Anbieter zahlen an die PC-Hersteller, um mit ausgeliefert zu werden und machen damit die Rechner preisgünstiger. Nur Microsoft verteuert – noch – durch seine Software die Rechner von IBM, HP, Dell und Co. Ein funktionierendes Open-Source-Paket à la 100-Dollar-PC könnte diese Situation grundlegend ändern.

Zusammengefasst: Die Situation bleibt unübersichtlich, ist für die bisherigen Geschäftsmodelle höchst gefährlich und lässt in Sachen Qualität nichts Gutes ahnen.

Themenseiten: Analysen & Kommentare, IT-Business

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

14 Kommentare zu PCs werden dank Open-Source immer billiger, doch ihre Qualität ist in Gefahr

Kommentar hinzufügen
  • Am 10. Juli 2006 um 13:58 von Real

    Gartner hat also die Qualitaet von OS untersucht ?
    oder wie kommen die zu der Meinung:Das laesst nix gutes fuer die Qualitaet erahnen !?
    Kaffeesatzlesen waere billiger gewesen und genauso viel Wert wie das Geschreibel.

    • Am 10. Juli 2006 um 17:11 von Szostek

      AW: Gartner hat also die Qualitaet von OS untersucht ?
      Find ich auch, in keinem Satz wird konkrett darauf eingegangen was denn so schlecht an OS sein soll.Und überhaupt, OS läuft meist stabiler als MS Produkte (Wir errinern uns alle an die Tausende BlueScreens und Abstürze in unserem Leben….)

    • Am 11. Juli 2006 um 0:12 von B@uleK

      AW: AW: Gartner hat also die Qualitaet von OS untersucht ?
      jO, sehe ich genau so. hab den artikel zwar nur überflogen, weil mich schon die überschrift irgendwie *angekozt* hat, aber warum soll unter open source die qualität leiden !?

      oder war das jetzt mehr auf die hardware bezogen, oder wie oder was ..?

      das einzigst positive was ich dem artikel ablesen konnte, ist das microsoft nen abgang machen kann und die welt viellt, aber auch nur viellt.! doch nicht unter geht :-|

    • Am 11. Juli 2006 um 13:44 von Karl Schranner

      AW: AW: AW: Gartner hat also die Qualitaet von OS untersucht ?
      Vielen Dank dass Sie diesen Artikel kommentieren, obwohl Sie ihn nach eigenem Bekunden "nur überflogen" haben. Haben Sie noch mehr profundes Expertenwissen parat?

      Mit freundlichen Grüßen

    • Am 11. Juli 2006 um 15:17 von Monopolhasser

      AW: AW: Gartner hat also die Qualitaet von OS untersucht ?
      Genau: "Zeit, dass sich was dreht"

  • Am 11. Juli 2006 um 22:15 von Krauss

    Open-Source
    Mit großem Interesse haben ich den Beitrag gelesen und bin entschieden verwirrt. Meint Gartner nun die qualitative Verarbeitung eines PCs oder die "Qualität" eines Betriebssystems?

    Meiner Meinung nach tut sich sicherlich ein Umbruch anmelden. Der Grund warum ein PC immer günstiger wird ist doch derer, dass die Anwendungen auch mit einem günstigeren System zu erfüllen sind.
    Betrachtet man Windows so beruht es im Gegensatz zu DOS auf einem GUI in der Bedienung. Dies macht die Handhabung für den endnutzer einfacher und bietet darüber hinaus mehr Funktionalität im Alltag.
    Es fordert jedoch hochwertigere Komponenten um diese GUI zu realisieren (Grafikleistung, etc.).
    Daraus ziehe ich meinen Schluss, dass das zentrale Elemente des „höherwertigen“ Systems der Zukunft eines neuen Betriebssystems mit neuen Funktionen und einer besseren Produktivität fordert.

    Warten wir also ab bis wir die vollen 64 Bit mit Windows XP nutzen können oder auch bis Windows Longhorn sein Weg in die Geschäfte anbahnt.

    • Am 12. Juli 2006 um 12:02 von Flurry Man

      AW: Open-Source
      Du meinst, mit 64 Bit wird alles besser? so wie seinerzeit beim Umstieg auf 32 Bit? Das erzählen die Marketingabteilungen auch immer – als wenn Stabilität und Benutzbarkeit von Anwendungen irgendetwas mit der Breite des Speicherbusses zu tun hätten. Träum weiter.

    • Am 17. Juli 2006 um 4:46 von SoIstDas

      AW: Open-Source
      "Warten wir also ab bis wir die vollen 64 Bit mit Windows XP nutzen können oder auch bis Windows Longhorn sein Weg in die Geschäfte anbahnt."

      kannst Du mir sagen, wozu Du konkret die 64 bit brauchst ? Außer dass es Dein System erstmal viel langsamer macht ?

      16 bit war wirklich klein, das stimmt (2 hoch 16 = 65536).
      32 Bit dagegen sollte niemanden mit normalen Bedürfnissen in Bedrängnis führen ( 2 hoch 32 = 4.294.967.296 )
      (soviel Speicher ist addressierbar )
      64 Bit bedeutet erstmal dass Du doppelt soviel Hauptspeicher brauchst um dieselbe Leistung zu erzielen. Weil nämlich alles doppelt so groß ist.
      Schau mal in Deinen Taskmanager wieviel Ram Deine Programme so durchschnittliche benötigen, wenn also mal EIN Programm an die 4 -10 GB Grenze kommen sollte, dann kannst Dir ja mal langsam überlegen auf 64 Bit umzusteigen ;-)
      Außer von Entwicklern, welche Software für die Entwicklung von Flugzeugen entwickeln, hab ich noch von niemanden gehört dass jemand 64 bit bräuchte ;-)
      (Dort benötigt man wohl viele Punkte pro Quadratmillimeter Flugzeughaut um eine Simulation zu starten) Die Anzahl der Adressen im Speicher überschreitet also die 4 Millarden Grenze)
      Aber kannst Dich natürlich trotzdem auf 64 bit freuen, wenn Du dies möchtest ;-)

    • Am 24. Juli 2006 um 8:20 von A. Miethe

      AW: Open-Source
      MS Windows – egal welche Version: wenn der Explorer hängen bleibt (z.B. Lesefehler auf CD) dann hagelt es Bluescreens und wenn man den Exploder manuell abschießt dann bootet man damit gleich den ganzen PC – welches Hirn programmiert sowas? Durch welche Qualitätskontrollen rutscht das durch? Das Thema Qualität hat sich damit schon erledigt und unter Betriebssystem verstehe ich etwas anderes, siehe Open Source.

  • Am 12. Juli 2006 um 10:50 von Thomas

    Hat eigentlich schonmal jemand …
    untersucht – also im Nachhinein – wieviele dieser ganzen Vorhersagen und Prognosen dieser in die Zukunft blickenden Firmen wie Gartner & Co auch tatsächlich so eingetroffen sind? Würde mich tatsächlich mal interessieren. Ich meine, wenn sagen wir mal 80% aller Prognosen von Gartner so tatsächlich eintreffen wär’s ja ne Überlegung wert as mal zu lesen – aber ehrlich gesagt glaube ich nicht daran.

  • Am 14. Juli 2006 um 11:54 von Markus Plieschnegger

    Open Source = schlecht?
    Ich habe den Artikel aufmerksam gelesen, doch drängen sich mir einige Fragen auf: Es wird einige Male angedeutet, dass die Qualität unter der Konkurrenz aus dem Open Source Bereich leiden würde, Argumente werden leider keine geliefert. Für mich ist genau das der weitverbreitete billig/gratis=Müll Irrglaube. Open Source hat nachweisbar dazu beigetragen, die Qualität der jeweiligen Softwarepakete drastisch zu erhöhen, man darf nicht vergessen, dass PC- Systeme immer komplexer werden und das erst die konsequente Umsetzung von Qualitätskriterien in der Softwareentwicklung dazu geführt hat, dass dennoch gute Programme entwickelbar sind.

    Eher stellt sich mir die Frage, ob die Microsoft- Produkte evtl. Qualitätseinbußen hinnehmen müssen, da das Monopol am Softwaremarkt immer mehr ins Wanken gerät. Moderne Linux- Systeme sind nicht nur kostenlos, sie sind auch großteils nicht mehr schwieriger zu bedienen, sind weiters sicherer und laufen stabiler. Auch gibt es für schon fast für jede Problemstellung eine Lösung am Open Source Markt. Wenn man sich vom Schemadenken "ich muss unbedingt die Programme x und y benutzen" verabschiedet, wird man auch ohne horrenden finanziellen Einsatz sehr weit kommen.

    Ich sehe hier nur Vorteile für den Software- als auch für den PC- Markt im Allgemeinen. Qualitätsbedenken- noch dazu ohne diese argumentativ zu untermauern- halte ich für unangebracht.

  • Am 16. Juli 2006 um 13:37 von seven

    …Babies werden doch von Klapperstörchen gepracht?
    PCs sollen zukünftig ohne Betriebssystem und ohne Software verkauft werden -> jeder soll sich dann die Produkte kaufen und installieren, die er für richtig hält.

    Das große Problem ist eben, dass der Markt und somit überwiegend die "Dummen" bestimmen, welche Produkte sich durchsetzen. Der Handy-Markt ist doch dafür das beste Beispiel.

    Dieser Artikel ist genau für diese "dummen" Käufer geschrieben. Ich denke, dass it diesem ZDNet-Artikel das Computerbild Nivau auf eine beeindruckende Weise markant unterschritten wurde.

  • Am 20. Juli 2006 um 21:54 von Karl Graus

    Qualität?
    Microsoft ist einfach nur schlecht,
    Gartner ist unseriös,
    das wird in Zukunft nur noch schlimmer.
    Ob Software etwas kostet, ist kein Kriterium.
    Der Artikel ist einfach blöde Werbung!

  • Am 25. Juli 2006 um 13:56 von Peter

    Die Kernaussage des Artikels ist:
    Das Preisgefüge wird weiter abrutschen, die Margen daher geringer. Daraus wird -analog zu der Entwicklung bei den Faxgeräten – bei den Herstellern die Neigung wachsen, Rendite über Einsparungen im Bereich des EK und der Verarbeitung zu erzielen was ergo zu einer Reduktion der Qualität der Produkte führen wird.

    Eine Tendenz übrigens die schon seit 6-7 Jahren sichtbar ist (zuerst bei den Desktops, seit zwei Jahren auch bei den Notebooks).

    Insofern war die Meldung weder neu noch originell sondern lediglich ein Versuch von Gartner sich mal wieder ins Gespräch zu bringen, frei nach dem Motto: "Halloo, uns gibts auch noch"…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *