Britische Regierung nutzt KI für Blockade extremistischer Inhalte

600.000 Pfund erhielt eine Londoner Softwarefirma für die Entwicklung eines Tools. Mit künstlicher Intelligenz soll es 94 Prozent dschihadistischer Videos erkennen. Die Innenministerin droht Firmen, sie gesetzlich zum Einsatz der Software zu zwingen.

Die britische Regierung hat ein Tool präsentiert, das angeblich dschihadistische Inhalte präzise identifizieren und dafür sorgen kann, dass sie nicht betrachtet werden. 600.000 Pfund aus Steuermitteln gingen dafür an den Londoner Softwarehersteller ASI Data Science, der seine Produkte mit dem Slogan „Künstliche Intelligenz für jedermann“ bewirbt.

KI (Bild: Shutterstock.com/agsandrew)

Innenministerin Amber Rudd wollte ausdrücklich nicht ausschließen, dass Technologiefirmen per Gesetz zum Einsatz dieses Tools gezwungen werden. Sie ist derzeit in den USA unterwegs, um mit dortigen Unternehmen über diese und andere Anstrengungen im Kampf gegen Extremismus zu sprechen. Mit dem KI-Tool glaubt sie demonstrieren zu können, dass Regierungsforderungen nach einem harten Vorgehen gegen Extremismus praktikabel sind.

„Es ist ein sehr überzeugendes Beispiel für die Tatsache, dass man die Informationen erhalten kann, mit denen sicherzustellen ist, dass dieses Material gar nicht erst online geht“, sagte sie gegenüber der BBC. „Die Technologie ist da. Es gibt Tools da draußen, die genau das leisten können, was wir verlangen. Für kleinere Unternehmen könnte das ideal sein.“

Sie verwies ebenfalls auf technologische Lösungen, an denen Silicon-Valley-Giganten wie Facebook und Google arbeiten. Auf politischen Druck hin hatten Facebook, Twitter, Youtube und Microsoft im letzten Jahr gemeinsam das „des Global Internet Forum to Counter Terrorism“ gegründet. Das Forum soll helfen, extremistische und terroristische Inhalte in Sozialen Medien zu bekämpfen.

Großbritanniens Regierung sieht jedoch ein Problem darin, nicht wissen zu können, in welchen Internet-Bereichen Dschihadisten als Nächstes aktiv werden. Laut einer Schätzung des Innenministeriums tauchte im zweiten Halbjahr 2017 extremistisches Material bei fast 150 Webservices auf, die zuvor nicht für derartige Propaganda genutzt wurden. Deshalb sei es wichtig, auch kleinere Plattformen gegen Extremismus zu mobilisieren und gegebenenfalls gesetzlich dazu zu zwingen. Als Beispiele für solche kleineren Unternehmen nennt die Regierung in ihrer Verlautbarung Vimeo, Telegraph und pCloud.

Um automatisch extremistisches Material zu erkennen, wurde das KI-Tool mit mehreren tausend Stunden von Videos „trainiert“, die von der Terrormiliz Islamischer Staat veröffentlicht wurden. Laut Hersteller kann die Software konfiguriert werden, um 94 Prozent von IS-Video-Uploads zu erkennen. Zu fälschlichen Erkennungen soll es dabei nur selten kommen, nämlich nur bei 0,005 Prozent von anderen hochgeladenen Videos. Als extremistisch markierte Videos sollen außerdem noch von menschlichen Moderatoren gesichtet werden.

Den Beweis für ihre Angaben blieben Regierung und Softwarehersteller allerdings schuldig. Es gab nicht einmal eine Live-Demonstration. Anwesende Journalisten erhielten nur „inoffizielle“ Informationen zum technischen Hintergrund und wurden gebeten, nichts über die genaue Methodik preiszugeben. Einfach ausgedrückt, so beschreibt es die BBC, handle es sich um einen Algorithmus, der bei Merkmalen ansetzt, die typisch für den IS und seine Online-Aktivitäten sind.

Die britische Innenministerin Amber Rudd fiel bislang eher durch wenig technischen Sachverstand auf, wie der britische Register dazu anmerkt. So sagte sie einmal, um fragwürdige Uploads zu verhindern, brauche es Leute, die „die notwendigen Hashtags verstehen“. Gemeint habe sie eigentlich Hashing zur Erkennung von Bildern, wie später eine Unterstaatssekretärin auf eine parlamentarische Nachfrage hin erklärte. Bei anderer Gelegenheit verlangte die Ministerin behördliche Zugriffsmöglichkeiten auf verschlüsselte Dienste wie WhatsApp – und räumte zugleich ein, dass sie nicht versteht, wie Verschlüsselung funktioniert. Kritik an ihrer Unkenntnis wies sie als „herablassend“ zurück.

Themenseiten: Großbritannien, Künstliche Intelligenz, Politik, Regulierung

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Britische Regierung nutzt KI für Blockade extremistischer Inhalte

Kommentar hinzufügen
  • Am 14. Februar 2018 um 19:29 von R. Schöhnherr

    Man sollte bedenken, dass es bei so einer KI, die Ihr Verhalten antrainiert bekommt, ja nie einen menschenlesbaren Algorithmus gibt.
    Das bedeutet, man wird es praktisch nie Absicht nachweisen können, wenn so eine Software mal andere Inhalte als Islamisten-Propaganda sperrt.
    Und man muss sich nur die Türkei anzusehen um zu erkennen, dass es nur Definitionssache der gerade herrschenden Regierung ist, was Terrorproaganda ist und was nicht-

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *