Künstliche Intelligenz: Denn wir wissen nicht, was sie tun

Die Entscheidungsfindung von KI-Algorithmen ist oft so komplex, dass Menschen sie nicht mehr nachvollziehen können. Damit geht ein Kontrollverlust einher, der in vielen Fällen zu Problemen führt. Die Anbieter von KI-Plattformen sollten gegensteuern und ihre Systeme so aufbereiten, dass auch die jeweiligen Domänenexperten die Künstliche Intelligenz beherrschen können.

Gastbeitrag Mit der zunehmenden Verbreitung von Künstlicher Intelligenz wächst auch die Sorge vor dieser Technologie als großer, undurchschaubarer „Black Box“. KI, so die Befürchtung, werde irgendwann uns kontrollieren anstatt wir sie. Auch wenn man nicht so weit gehen muss wie Tesla-Chef Elon Musk das immer wieder tut, indem er etwa vor Künstlicher Intelligenz als „unsterblichem Diktator“ warnt: völlig unbegründet sind diese Sorgen nicht. Künstliche Intelligenz ist tatsächlich in vielen Fällen so intransparent, dass Menschen überhaupt nicht mehr oder nur noch sehr schwer nachvollziehen können, wie sie zu ihren Entscheidungen kommt – und das bedeutet in der Tat Kontrollverlust.

 Der Autor Dr. Kay Knoche ist Solution Consultant Next Best Action Marketing bei Pegasystems (Bild: Pegasystems)Der Autor Dr. Kay Knoche ist Solution Consultant Next Best Action Marketing bei Pegasystems (Bild: Pegasystems)

Das gilt insbesondere für die Methodik des Deep Learning, eine Teildisziplin des Machine Learning. Sie wird vor allem dazu genutzt, um aus besonders großen Datenbeständen Muster und Modelle zu erkennen und dann daraus Prognosen und Entscheidungen abzuleiten. Dabei kommen künstliche neuronale Netze zum Einsatz, die dem menschlichen Gehirn nachempfunden sind, und während des Lernvorgangs immer wieder neu verknüpft werden. Die Rolle des Menschen beschränkt sich dabei im Grunde darauf, die Daten für den Lernvorgang zur Verfügung zu stellen. Auf den Ablauf und die Ergebnisse des Vorgangs hat er keinen Einfluss mehr. Dadurch lässt sich auch am Ende nicht mehr durchgängig zurückverfolgen, anhand welcher Muster genau die KI eine konkrete Entscheidung getroffen hat.

Intransparenz hat problematische Auswirkungen in der Praxis

Aber auch die übrigen Machine-Learning-Verfahren sind – zumindest für Normalsterbliche – meist nicht zu durchschauen. Zwar mögen vielleicht KI-Experten wie spezialisierte Entwickler oder Data Scientists noch eindeutig nachvollziehen können, wie diese Verfahren zu ihren Ergebnissen kommen; ihre Anwender können das in aller Regel aber nicht. Das ist in der Praxis durchaus problematisch.

Zum Beispiel beim Online-Shopping: Viele Internet-Händler bieten ihren Kunden die Möglichkeit, ihre Bestellungen per Rechnung zu bezahlen. Bevor ihnen dies gestattet wird, findet aber häufig im Hintergrund eine KI-basierte Bonitätsprüfung statt. Der Online-Händler prüft, beziehungsweise lässt von einem Dienstleister prüfen, ob der Käufer kreditwürdig ist. Sind Händler und Dienstleister als Anwender des entsprechenden Verfahrens nicht in der Lage nachzuvollziehen, wie diese Entscheidung gefällt wird und welche Faktoren für sie herangezogen werden, können sie auch nicht sicher ausschließen, dass dabei Diskriminierung stattfindet – etwa durch die Einbeziehung der Herkunft, des Alters oder des Geschlechts; und sie können es im Zweifelsfall auch nicht nachweisen.

Bleibt das so, wird dieses Problem mit der steigenden Verbreitung von Künstlicher Intelligenz immer mehr Lebensbereiche durchdringen. So ist etwa vorstellbar, dass Unternehmen Entscheidungen über Personaleinstellungen künftig von Machine-Learning-basierten Systemen treffen lassen; oder Grundschulen mit solchen Systemen die Übertrittsempfehlungen für die Schüler am Ende der vierten Klasse ermitteln; oder Gerichte die Sozialprognosen von Straftätern damit erstellen. Können die verantwortlichen Personaler, Lehrer oder Gutachter diese Entscheidungen nicht durchschauen, können sie sie auch nicht gegenüber den Bewerbern, den Schülern und ihren Eltern oder den Verurteilten und ihren Anwälten begründen – und im Streitfall auch nicht überprüfen, ob sie rechtmäßig zustande gekommen sind.

Durch die modellhafte Darstellung der Entscheidungsstrategie wird sichergestellt, dass auch nicht IT-affine Mitarbeiter Details der Entscheidungsfindung nachvollziehen und gestalten können (Bild: Pegasystems).Durch die modellhafte Darstellung der Entscheidungsstrategie wird sichergestellt, dass auch nicht IT-affine Mitarbeiter Details der Entscheidungsfindung nachvollziehen und gestalten können (Bild: Pegasystems).

Aus diesen Gründen darf die Künstliche Intelligenz nicht weiterhin allein den IT-Firmen und IT-Fachexperten überlassen werden. In Fällen, in denen von KI getroffene Entscheidungen Gesetze, ethische Grundsätze oder Werte und Ideale der freiheitlich-demokratischen Gesellschaft betreffen, muss sich die KI auch ohne IT-Expertise durchschauen lassen. Die Domänenexperten in den Unternehmen und Behörden, in deren Verantwortungsgebiet die Anwendung der Künstlichen Intelligenz fällt, müssen steuern können, welche Faktoren bei der Entscheidungsfindung berücksichtigt werden; sie müssen wissen, wie die Entscheidungen grundsätzlich zustande kommen; und sie müssen im Zweifelsfall in der Lage sein, jede einzelne Entscheidung zu „re-engineeren“, sprich: zurückzuverfolgen.

KI-Plattformen müssen Domänenexperten Kontrolle bieten

Erreichen lässt sich das, indem die Anbieter ihre KI-Plattformen und -Lösungen entsprechend aufbereiten. Sie dürfen nicht einfach länger nur die blanke KI-Technologie liefern, sondern sollten sie um eine Management-Ebene erweitern, die es den Domänenexperten ermöglicht, die KI zu kontrollieren. Wie das konkret aussehen kann, zeigt das Beispiel einer „Next Best Action“-Engine für das Kundenmanagement. Sie schlägt Mitarbeitern und IT-Systemen bei jedem Kontakt mit Kunden automatisch diejenigen Aktionen vor, die für den Kunden und das Unternehmen gleichermaßen am besten sind.

Zu ihren Entscheidungen kommt die Engine dabei in einem dreistufigen Verfahren. Der erste Schritt besteht in der Anwendung hart kodierter deterministischer Regeln a la: wenn X dann nicht Y. Sie dienen dazu, zunächst einmal all diejenigen Optionen herauszufiltern, die grundsätzlich nicht in Frage kommen, weil sie unsinnig sind. So lässt sich mit diesen Filterregeln beispielsweise von vornherein ausschließen, dass einem Rentner eine Berufsunfähigkeitsversicherung angeboten wird.

Im zweiten Schritt kommt dann ein analytisches Modell zum Einsatz, das alle verbliebenen Optionen mit Scoring-Werten versieht. Mit Hilfe eines Machine-Learning-Verfahrens ermittelt die Engine anhand der historischen Daten sämtlicher Kunden sowie der aktuellen, kontextuellen Daten des jeweiligen individuellen Kunden, wie gut die Aussicht der einzelnen Optionen auf Erfolg ist. Sie prognostiziert mit ihren Scoring-Werten, wie hoch erfahrungsgemäß die Wahrscheinlichkeit jeder noch möglichen Option ist, vom Kunden angenommen zu werden.

Der dritte Schritt schließlich besteht darin, Optionen mit gleichen Wahrscheinlichkeiten anhand der gewünschten Ziele zu priorisieren. In einem Verkaufsprozess beispielsweise schlägt die Engine im Falle von mehreren Angeboten mit identischen Scoring-Werten dasjenige vor, welches dem Unternehmen die höchste Marge bietet. Geht es in einem Call-Center-Gespräch um die Lösung eines Kundenproblems, schlägt die Engine dem Call-Center-Mitarbeiter die Antwort vor, die erfahrungsgemäß zur geringsten Bearbeitungszeit für den Mitarbeiter führt.

Der Knackpunkt in Sachen Transparenz liegt dabei natürlich im analytischen Modell des zweiten Schritts. Die Filterregeln des ersten Schritts und die Priorisierungen des dritten sind klar und eindeutig einstellbar und nachvollziehbar. Die zusätzlich nötige Transparenz über den zweiten Schritt stellt die „Next Best Action“-Engine durch modellierbare Entscheidungsstrategien her. Verantwortliche für Vertrieb und Kundenmanagement haben die Möglichkeit, die Entscheidungswege der Engine aus einzelnen Bausteinen selbst zusammenzustellen. Dabei zeigt ihnen die Software auf, welche Einflussfaktoren mit welcher Gewichtung in das analytische Modell einfließen, und können bei Bedarf einzelne Faktoren ausschließen. Dadurch sind sie auch in der Lage, jede von der Engine getroffene Entscheidung nachzuvollziehen und zu überprüfen, warum sie so ausgefallen ist und nicht anders. Dafür benötigen sie zwar Fachexpertise für Vertrieb und Kundenbeziehungen, aber keine dedizierte IT-Ausbildung. Den zugrunde liegenden Algorithmus müssen sich nicht verstehen.

Transparente ist nicht per se die bessere KI

Das verständliche Bedürfnis nach transparenter KI bedeutet aber nicht, dass sie per se die bessere KI ist. Ganz im Gegenteil: Intransparente KI kann in vielen Fällen bessere im Sinne von zutreffendere Ergebnisse liefern – ganz einfach deshalb, weil sie in den Methoden und Entscheidungskriterien, die sie verwendet, nicht eingeschränkt wird. Nur gibt es eben auch viele Fälle, in denen der Preis dafür zu hoch ist. Deshalb gilt es beim Einsatz von Künstlicher Intelligenz immer abzuwägen, was im konkreten Fall schwerer wiegt: Die möglicherweise besseren Ergebnisse oder die Kontrollierbarkeit der KI.

Bei Entscheidungen wie Kreditvergaben, Personaleinstellungen oder Schulübertritten ist die Antwort vermutlich eindeutig: Hier spricht vieles dafür, sich auf den Deal „weniger akkurate Ergebnisse zugunsten von Transparenz“ einzulassen. Bei einem Dating-Portal dagegen dürfte fehlende Durchschaubarkeit weniger schwer ins Gewicht fallen. Wer sich dort anmeldet, möchte vor allem eines: einen passenden Partner finden. Wie dieser Partner gefunden wird, dürfte den meisten ziemlich egal sein. Ähnlich verhält es sich im medizinischen Bereich. Bei schweren Krankheiten werden es die meisten Menschen vermutlich vorziehen, wenn eine Künstliche Intelligenz die bestmögliche Therapie für sie ermittelt; und sie werden dafür gerne darauf verzichten zu wissen, wie die KI auf diese Therapie gekommen ist.

Einen allgemeingültigen Maßstab, wo transparente KI zum Einsatz kommen sollte und wo intransparente KI die bessere Alternative ist, gibt es nicht. Diese Entscheidung müssen Politik, Gesellschaft und Domänenexperten für jeden Lebensbereich einzeln treffen; und diese Entscheidung kann ihnen Künstliche Intelligenz auch nicht abnehmen.

Themenseiten: Künstliche Intelligenz

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Künstliche Intelligenz: Denn wir wissen nicht, was sie tun

Kommentar hinzufügen
  • Am 4. Juni 2019 um 7:45 von Jan Schulze

    Eine medizinische KI – welche die Empfehlung zu einer bestimmten Therapie nicht erklären kann – ist in meinen Augen nichts weiter als ein elektronischer Scharlatan. Die Empfehlung und die Diagnose müssen für weiterbehandelnde Ärzte nachvollziehbar sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *