Google will Terror mit KI bekämpfen

Der Internetkonzern verpflichtet sich zu weiteren Maßnahmen, um Terror-Propaganda auf seiner Videoplattform Youtube und anderen Diensten zu verhindern. Das Vier-Punkte-Programm sieht den Einsatz von maschinellem Lernen ebenso wie die Mitwirkung von mehr unabhängigen Experten vor.

Google hat sich zu vier zusätzlichen Schritten verpflichtet, um Terror-Propaganda über seine Online-Dienste wie Youtube einzudämmen. Dabei sollen künstliche Intelligenz (KI) ebenso zum Einsatz kommen wie eine größere Zahl unabhängiger Experten. Das Vier-Punkte-Programm kündigte Googles Chefjustiziar Kent Walker in einem Blogeintrag an, der zuerst als Gastkommentar in der Financial Times veröffentlicht wurde.

Youtube-Playlist (Bild: Youtube)

„Wir und andere haben seit Jahren an der Identifizierung von Inhalten gearbeitet, die gegen unsere Richtlinien verstoßen“, schreibt Walker. „Die unbequeme Wahrheit ist aber, dass wir als Branche zugeben müssen, dass mehr getan werden muss. Jetzt.“

Die erste Maßnahme soll darin bestehen, Technologie zur Identifizierung von extremistischen und mit Terrorismus zusammenhängenden Videos zu nutzen. Die Herausforderung sei, dass ein Video über eine terroristische Attacke ebenso ein informativer Bericht der BBC sein könnte wie eine Gewaltverherrlichung, wenn es von einem anderen Nutzer in einem anderen Kontext hochgeladen wird.

Schon bisher wurden laut Walker Video-Analyse-Modelle eingesetzt, um über die Hälfte der terrorbezogenen Inhalte zu finden und einzuschätzen, die in den letzten sechs Monaten entfernt wurden. Jetzt will der Internetkonzern mehr Entwickler-Ressourcen der Anwendung fortgeschrittenster Maschinenlernen-Forschung auf das Training neuer „Inhalte-Kategorisierer“ widmen, um „uns zu helfen, extremistische und terrorbezogene Inhalte schneller zu identifizieren und zu entfernen“.

Umfrage

Wo setzen Sie bei der Effizienzsteigerung ihrer Infrastruktur die höchste Priorität

Ergebnisse anzeigen

Loading ... Loading ...

Aber auch Google räumt ein, dass Technologie allein kein Allheilmittel sein kann. Daher soll die Anzahl unabhängiger Experten im Trusted-Flagger-Programm von Youtube erheblich ausgeweitet werden. Zu den bisher teilnehmenden 63 Organisationen sollen die Experten von 50 weiteren Nichtregierungsorganisationen hinzukommen. „Maschinen können dabei helfen, problematische Videos zu identifizieren, aber menschliche Experten spielen noch immer eine Rolle in nuancierten Entscheidungen über die Linie zwischen gewaltsamer Propaganda und religiösen oder berichtenswerten Inhalten“, heißt es weiter.

Drittens will Google eine entschiedenere Haltung gegenüber Videos einnehmen, die nicht eindeutig seine Richtlinien verletzen. Das könnten etwa Videos mit hetzenden oder rassistischen Inhalten sein. Ihnen soll künftig eine Warnung vorgeschaltet sein, sie sollen weder kommentiert oder empfohlen werden können – und es soll nicht möglich sein, mit ihnen Geld zu verdienen. Zuletzt will Googles Videoplattform Youtube offensiv gegen versuchte Radikalisierung angehen. Anfällige Nutzer sollen mit aufklärenden Videos konfrontiert werden, um ihre mögliche IS-Rekrutierung zu verhindern.

Google will außerdem zusammen mit Facebook, Microsoft, Twitter und auch kleineren Firmen ein internationales Forum aufbauen, um gemeinsame Anstrengungen gegen online verbreiteten Terrorismus zu beschleunigen. „Zusammen können wir nachhaltige Lösungen schaffen, die den Bedrohungen unserer Gesellschaft und unserer Freiheit entgegenwirken“, schließt Chefjustiziar Walker. „Es ist eine umfassende und komplexe Herausforderung. Wir sind entschlossen, unseren Teil beizutragen.“

Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.

Themenseiten: Google, Internet, Politik, Video, Youtube

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Google will Terror mit KI bekämpfen

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *