Categories: Data & Storage

Meta Galactica eingestellt

Die Realität einer KI-gestützten Zukunft ist noch nicht in Sicht, nachdem der Facebook-Eigentümer Meta ein KI-Demomodell nach nur drei Tagen Betrieb eingestellt hat. Meta hat sein am 15. November veröffentlichtes KI-Projekt Galactica, das schnell und präzise Fragen für die wissenschaftliche Gemeinschaft beantworten sollte, offiziell pausiert.

Es scheint, dass Metas Galactica-Projekt aufgrund von Berichten geschlossen wurde, dass es rassistische, gefährliche und falsche Informationen generiert. Von Anfang an erklärte Meta, dass es sich bei seinem Galactica-Projekt um ein großes Sprachmodell handelt, das wissenschaftliches Wissen speichern, kombinieren und schlussfolgern kann.

Bevor es vom Netz genommen wurde, konnte man die KI bitten, einen Wiki-Eintrag, eine Literaturübersicht oder eine Forschungsarbeit zu fast jedem Thema zu erstellen. Metas Galactica-Projekt war offenbar auf 48 Millionen wissenschaftliche Arbeiten trainiert worden, aber das KI-Projekt wurde zurückgezogen, nachdem The Next Web (TNW) auf einige der gefährlichen Vorschläge hingewiesen hatte, die es erzeugt hatte.

Dazu gehörten Forschungsarbeiten über die Vorteile von Selbstmord, Antisemitismus, warum Homosexuelle böse sind und das Essen von zerbrochenem Glas. Berichten zufolge gab es auch (falsche) Anleitungen, wie man das Bombenmaterial Napalm in einer Badewanne herstellen kann.

Gescheitert KI-Experimente

Meta experimentiert schon seit einiger Zeit mit KI, und das hat zu einigen Fehlschägen geführt. Im Oktober 2021 erklärte ein von Facebook geleitetes Forschungsprojekt für künstliche Intelligenz, dass es darauf abzielt, Maschinen dazu zu bringen, mehr wie die Menschen zu denken, die sie benutzen.

Im Rahmen des Ego4D-Programms wurde KI offenbar darauf trainiert, mit der Welt aus einer egozentrischen oder Ich-Perspektive zu interagieren.

Im August dieses Jahres veröffentlichte Meta dann den Chatbot BlenderBot 3 und öffnete ihn für Nutzer, die der Erfassung ihrer Daten zustimmten. Der Chatbot BlenderBot 3 war so konzipiert, dass er auf der Grundlage von Sachinformationen freie Unterhaltungen mit Nutzern führen konnte.

Meta hat offenbar von Microsofts Tay-Chatbot aus dem Jahr 2016 gelernt, der schnell aus der Öffentlichkeit entfernt wurde, nachdem Nutzer ihn dazu gebracht hatten, rassistische und frauenfeindliche Antworten zu geben.

Aber auch BlenderBot 3 war kein Erfolg. Er hat Mark Zuckerberg kritisiert und offenbar auch Wahlfehlinformationen wiederholt. Er sagte Business Insider, Zuckerberg sei gruselig, während die BBC darüber informiert wurde, dass Meta Menschen für Geld ausbeutet und (Zuckerberg) sich nicht darum kümmert.

ZDNet.de Redaktion

Recent Posts

EU-Datenschützer kritisieren Facebooks „Zustimmung oder Bezahlung“-Modell

Ohne eine kostenlose Alternative, die ohne Zustimmung zur Verarbeitung personenbezogener Daten zu Werbezwecken auskommt, ist…

11 Stunden ago

Europol meldet Zerschlagung der Phishing-as-a-Service-Plattform LabHost

LabHost gilt als einer der größten Phishing-Dienstleister weltweit. Die Ermittler verhaften 37 Verdächtige, darunter der…

13 Stunden ago

DE-CIX Frankfurt bricht Schallmauer von 17 Terabit Datendurchsatz pro Sekunde

Neuer Datendurchsatz-Rekord an Europas größtem Internetknoten parallel zum Champions-League-Viertelfinale.

1 Tag ago

Samsungs neuer LPDDR5X-DRAM erreicht 10,7 Gbit/s

Die neuen Chips bieten bis zu 25 Prozent mehr Leistung. Samsung steigert auch die Energieeffizienz…

1 Tag ago

Cisco warnt vor massenhaften Brute-Force-Angriffen auf VPNs

Betroffen sind Lösungen von Cisco, Fortinet, SonicWall und anderen Anbietern. Die Hacker nehmen Konten mit…

1 Tag ago

Cybersicherheit in KMUs: Es herrscht oft Aufholbedarf

Immer häufiger müssen sich Betriebe gegen Online-Gefahren wehren. Vor allem in KMUs werden oft noch…

1 Tag ago