Allgemein

Kann künstliche Intelligenz intelligenter werden?

Nützliche Technologien zeichnen sich oft dadurch aus, dass sie uns beim Lösen von Aufgaben und Ausführen von Handlungen unterstützen. Wir können feststellen, dass mit der aktuellen Durchdringung von künstlicher Intelligenz das Spektrum an Aufgaben und Handlungen gewachsen ist, in dem mit Technologien einen Nutzen erzielt werden kann. Wir vermuten deshalb, dass dieses Spektrum weiterwachsen kann, wenn wir künstliche Intelligenz mit mehr Intelligenz versehen.

An der aktuellen Front der in den Medien dargestellten künstlichen Intelligenz finden sich Anwendungen wie z. B. automatisierte, visuelle Objekterkennung [1], natürlich-sprachliche Interaktion mit Agenten [2] oder selbstfahrende Fahrzeuge [3]. Häufig kommt bei solchen Anwendungen maschinelles Lernen zum Einsatz. Dabei wird ein System dafür trainiert, auf bestimmte Eingaben bestimmte Ausgaben zu erzeugen. Je nach Anwendung handelt es sich bei diesen Ein- und Ausgabepaaren um Bildmaterial und darin erkannte Objekte, eingehende Sprachnachrichten und dazugehörige Antworten oder Verkehrssituationen und Steuerbefehle an ein Fahrzeug. Wir sprechen hier von einer Intelligenz, weil a) etwas gelernt wird und b) dank einer Generalisierungsfähigkeit auch bei bisher nicht erlernten Eingaben mit sinnvollen Ausgaben gerechnet werden kann.

Ein Vergleich mit natürlicher Intelligenz

Unabhängig der Komplexität der diesem Lernverhalten zugrundeliegenden Mathematik und Datenverarbeitung, kann diese Form von Intelligenz mit den behavioristischen Modellen [4] eines Organismus’ verglichen werden: eine Black Box, die auf eingehende Stimuli mit Responses reagiert. Obwohl dieser Vergleich als eine eher kritische Beurteilung von künstlicher Intelligenz aufgefasst werden kann, lenkt er unsere Sicht darauf, was die Erforschung von Intelligenz seit der Black-Box-Epoche sonst noch ans Licht gebracht hat.

Gemäss einer Definition in Wikipedia [5] beinhaltet natürliche Intelligenz die Fähigkeit, nachzudenken, dabei Urteile zu fällen und Entscheidungen zu treffen. Dies geschieht typischerweise im Kontext von Zielen, die wir uns setzen, Plänen, die wir schmieden, um diese zu erreichen und Mitteln, die wir einsetzen, um unseren Plänen nachzugehen. Unterwegs können wir Probleme aller Art lösen, z. B. indem wir Lösungskonzepte erkennen, generalisieren und auf kreative Art und Weise anwenden. Oder indem wir uns einfach Hilfe holen.

Konversationsagenten mit Theory of Mind

Auch wir können Muster erkennen und klassifizieren, wenn auch nicht so schnell und fehlerfrei wie dies Maschinen jetzt schon oder bald können. Aber wir können uns dabei selbst wahrnehmen [6], reflektieren und in Frage stellen. Und wir können uns für beliebige Wesen Theorien ausdenken, was diese Wesen können, wissen, wollen und was nicht (Theory of Mind) [7]. Mit solchen Theorien können wir deren Verhalten erklären und voraussagen. Kann ein Konversationsagent, welcher über solche Fähigkeiten verfügt, Nutzen stiften?

Nehmen wir als Beispiel einen Agenten – ähnlich zu Apples Siri oder zum Google-Assistenten – welcher bei der dargebotenen Hand Anrufe von Menschen mit Suizidabsichten entgegennimmt. Das Ziel wäre es, den Anrufer bzw. die Anruferin im Gespräch von diesem Vorhaben abzubringen. Den Dialog können wir uns ähnlich zu einem gesprochenen Chatverlauf in WhatsApp vorstellen: ein Pingpong von eingehenden Nachrichten und daraus resultierenden Antworten. Das Vorgehen des Agenten besteht somit darin, auf jede eingehende Nachricht eine Antwort zu geben. Dies kann z. B. mithilfe von Recurrent Neural Networks (RNN) [8] umgesetzt werden [9]. In Anlehnung an eine von Menschen geführte Konversation, stellt sich nun die Frage, inwiefern ein RNN die in den eigehenden Nachrichten reflektierte Stimmung der anrufenden Person wahrnimmt und beim Erzeugen von Antworten miteinbezieht.

Im Rahmen eines Studierendenprojekts wurde ein Konversationsagent geschaffen, der die Aspekte Inhalt und Stimmung separat wahrnimmt und miteinbezieht. Mittels Sentimentanalyse [10] wird eine Stimmung aus der eingehenden Nachricht herausgelesen. Das Ziel der Konversation ist die positive Veränderung der erkannten Stimmung. Um die Veränderung berechnen zu können, wird die Sequenz der pro Nachricht erfassten Stimmung intern abgebildet. Diese Abbildung kann als eine einfache Form der Idee von Theory of Mind betrachtet werden.

Konversationsagenten mit Antrieb

Der Agent wurde ausserdem um einen eigenen emotionalen Zustand erweitert. Sein Zustand wird über die gewünschte Veränderung der Stimmung beim Gegenüber gesteuert. Wenn sich die Stimmung über einen Zeitraum nicht ändert, wird der Agent ungeduldig und ändert – sozusagen aus einer Frustration heraus – seinen Konversationsstil. Dies wird solange wiederholt, bis ein Stil gefunden wird, bei dem sich die Stimmung beim Gegenüber ändert. Die Veränderung der Stimmung führt wiederum dazu, dass der Agent sich beruhigt und deshalb beim gefundenen Stil bleibt. Solch eine emotionale Komponente verleiht dem Agenten eine einfache Form von Antrieb.

Dieses Beispiel zeigt auf, wie mit einfachen Mitteln bisherige Formen künstlicher Intelligenz um zusätzliche Intelligenzformen (Empathie, Emotionen) erweitert werden können. Wenn wir Technologien wollen, die uns mehr unterstützen, dann werden wir uns früher oder später einem breiteren Spektrum an Intelligenzformen bedienen müssen, als dies aktuell mit maschinellem Lernen gemacht wird. Wir widmen uns deshalb der Identifikation neuer Formen künstlicher Intelligenz und freuen uns, diese mit unseren Studierenden im Rahmen von realen Problemstellungen anzuwenden.

Ein Beitrag von Prof. Dr. Alexandre de Spindler

Referenzen

Discussion

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.