Werden Maschinen jemals zu Empathie fähig sein? Oder wird das immer etwas sein, das uns Menschen von den immer klüger werdenden Intelligenzbestien unterscheidet, die aus etwas Blech und Schrauben und immer mehr Software aus der Cloud daher kommen und auf die viele mit einer mit etwas Schaudern gepaarten Bewunderung und einer guten Portion Zukunftspessimissmus blicken?
In all der Ängstlichkeit, dass Maschinen uns Menschen irgendwann einmal überflügeln und überflüssig machen könnten steckt auch die Frage: Wie menschlich soll, ja wie menschlich DARF überhaupt eine künstliche Intelligenz sein? Ist es die emotionale Empfindungsfähigkeit, die uns Menschen immer vorbehalten bleiben wird? Oder kann auch eine Maschine zu einer Art Empathie fähig sein?
empathy
/ˈɛmpəθi/
noun
The ability to understand and share the feelings of another.
Wie menschlich soll Künstliche Intelligenz sein?
In meiner Vorbereitung für die Microsoft Breakout Session an den kommenden Alpbacher Wirtschaftsgesprächen – zum Thema AI & Ethik – bin ich dazu auf interessante Quellen und Perspektiven gestoßen. Eine davon war ein Video der WU Professorin Sarah Spiekermann, die sich bereits seit geraumer Zeit mit Ethikfragen rund um AI beschäftigt, in diesem Fall mit der Frage, wie menschlich eine KI eigentlich sein soll oder darf?
Man kann sich das Trainieren einer KI im Prinzip wie das Lernen eines Kindes vorstellen. Erst mit der Zeit bilden sich neben der Sammlung von purer Information und ständiger Anreicherung in Form von Wissen auch Dinge wie kultureller Kontext und eine Art ethisches Gewissen aus. Dabei liegt es auf der Hand, dass nicht nur einfach Fehler aus der Hand eines Programmierers sich auf das Antwortverhalten einer KI auswirken, sondern auch die kulturelle Prägung, die gesellschaftlichen Konventionen und Werte der umgebenden Gesellschaft bis hin zum geltenden Rechtssystem.
So wird klar, dass eine in China trainierte AI durchaus sehr verschieden von einer in den USA oder Europa angelernten AI reagieren wird. Im einfachen Beispiel von Frau Spiekermann reagiert die in Russland programmierte AI auf die Feststellung „Ich bin sehr trauig, mir geht es heute gar nicht gut“ sehr verschieden von der gedachten Maschine aus den USA. Eigentlich leicht nachzuvollziehen, wenn man den unterschiedlichen kulturellen Hintergrund bedenkt.
Jetzt könnte man sagen, „So what, – sollen die Chinesen halt nach ihrer Façon glücklich werden“. Das ist jedoch in Zeiten der Globalisierung dann doch nicht so einfach. Wenn Produkte weltweit vermarktet werden und auch Franzosen ein Huawei Handy in der Hand haben, kann es in der Anwendung von KI auch rasch zu „cultural clashes“ kommen. Bis hin zu der Frage, ob der Durchschnitts-Europäer über KI Schnittstellen einen ähnlich lockeren Umgang mit Menschenrechten, Datenschutz u.ä. pflegen möchte, wie es bspw. in Asien der Fall ist.
Brauchen wir Maschinen mit Mitgefühl?
Aber kommen wir wieder zurück zum Thema Empathie und der Frage, ob es möglich bzw. überhaupt notwendig und wünschenswert ist, Maschinen die Gefühlswelt und Stimmungslagen von Menschen zu vermitteln. Und einem möglichen Berufsfeld, das es heute noch gar nicht gibt.
Empathie ist ein fundamentaler Bestandteil unseres Lebens. Es trägt zu Zusammenarbeit und Kooperation bei und überstrahlt Kultur, soziales Verhalten und Wohlbefinden. Menschen sind nun einmal soziale Wesen. Wenn wir daher über die Entwicklung von AI denken, ist es bis zu einem bestimmten Grad unerlässlich, Empathie mit zu berücksichtigen.
Eine gewisse Kapazität an Empathie kann einem AI System zu mehr Natürlichkeit verhelfen und auch unsere gegenwärtige Stimmungs- oder Gefühlslage in der jeweiligen Interaktion einbeziehen. Je nach Aufgabenstellung kann es in einer Anwendung wichtig sein, dass ein Mensch zu einer Reaktion gebracht wird oder eine Reaktion vorhergesehen wird. Dafür ist es aber notwendig, die gegenwärtige Gefühlslage zu verstehen; in einer Weise die dem System wiederum Rückschlüsse auf eine zu erwartende Antwort erlaubt.
Sprachassistenten wären da ein gutes Beispiel. Die Art, wie sie Information übermitteln, könnte an den erkannten emotionalen Status des Anwenders angepasst werden und damit viel natürlicher wirken. Das ist jedoch nicht so einfach, wie es klingt. Während eine Maschine recht einfach zwischen Lächeln und Stirnrunzeln unterscheiden kann, können wir Menschen jedoch auch aus Freude schreien oder frustriert lächeln, – ganz abhängig von unserer aktuellen Stimmung und individuellen Persönlichkeit. Es ist daher nicht genug, die Maschine einfach nur jemandes Tonlage, Gesichtsausdruck, Körperhaltung und Gestik erkennen zu lassen.
Aus dieser komplexen Gemengelage ist inzwischen ein valider Forschungszweig geworden; ganze Lehrstühle widmen sich inzwischen dem Thema der Interaktion mit AI Systemen und der Entwicklung von so etwas wie künstlicher Empathie. Ein fruchtbarer Boden, auf dem auch neue Jobs wachsen, die es heute noch gar nicht gibt.
Der Empathologe, ein Job den es noch zu erfinden gilt
Auf Basis der wissenschaftlichen Forschung an Lehrstühlen wie dem von Michael Banissy, Professor und Head of Department in Psychologie an der University of London oder Chris Edgar, Postdoctoral Research Fellow am Banissy Lab, könnte ein „Empathologe“ seine akademische Ausbildung dafür nutzen, AI Systemen die vielen unterschiedlichen Nuancen der menschlichen Emotion beizubringen.
Darüber hinaus wäre das ein Job, der für die ständige Verbesserung des Designs von Algorithmen in Richtung eines besseren Verständnisses emotionaler Gefühlslagen der Benutzer, geradezu unverzichtbar werden könnte. Er oder sie würde in das Entwicklerteam auch genau die Art von Diversity einbringen, die dafür notwendig wäre. Diese Rolle wäre dann auch das Bindeglied zwischen der weiteren Forschung auf der universitären Ebene und der praktischen Anwendung in alltäglichen KI Systemen.
Gibt es eine soziale Dividende dabei?
Der Wert, der sich alleine auf einer wissenschaftlich-technologischen Ebene daraus ergibt, einem AI System die möglichst natürliche Interaktion mit Menschen zu erlauben, liegt recht klar auf der Hand. Darüber hinaus können derartige Systeme auch einen positiven Impact auf unsere eigenen Emotionen und damit auch auf die soziale Gesundheit breiter Bevölkerungsteile haben.
Denken wir beispielsweise daran, welche negativen Effekte empfundene und tatsächliche Einsamkeit auf Gesundheit und Wohlbefinden haben kann bzw. bereits definitiv hat. Die Entwicklung von Systemen die eine positive Feedbackschleife zu betroffenen Menschen aufbauen können, wäre hier extrem hilfreich und würde etwas schaffen, dass die derzeitige Überforderung unserer Sozialsysteme deutlich lindern könnte.
Ich denke, auch wenn es den „Empathologen“ noch nicht konkret gibt, wohnt der Rolle bereits so viel Potential inne, dass es nur eine Frage der Zeit sein wird, bis es diesen spannenden Beruf gibt. Genau an der Schnittstelle zwischen Mensch und Maschine.