Unser Spiegelbild im AI-Spiegel

Es ist nichts Neues, Maschinen menschliche Eigenschaften zuzuschreiben, aber mit dem Aufkommen der generativen künstlichen Intelligenz nimmt der Anthropomorphismus eine neue Dimension an. Dieser Trend wirft entscheidende philosophische und ethische Fragen auf und definiert gleichzeitig unsere Beziehung zur Technologie neu.
Mensch und Maschine verflechten sich immer mehr © iStock

Wenn Sie jemals «Hallo» oder «Danke» in ChatGPT getippt haben, dann haben Sie sich des Anthropomorphismus schuldig gemacht – ein zungenbrecherisches Wort, das in Diskussionen über künstliche Intelligenz (KI) immer häufiger auftaucht. Aber was genau bedeutet es?

Ganz allgemein bedeutet Anthropomorphismus die Zuschreibung menschlicher Eigenschaften an nicht-menschliche Wesen wie Tiere und Objekte. Dieses Konzept wurde auch auf humanoide Roboter und in jüngerer Zeit auf die KI – insbesondere die generative KI – angewandt. Im Gegensatz zu spezialisierter KI, die für bestimmte Zwecke wie die Gesichtserkennung eingesetzt wird, kann generative KI (zu der auch ChatGPT gehört) Text, Bilder und andere Arten von Inhalten als Reaktion auf eine Eingabeaufforderung erzeugen.

Während die Vermenschlichung der generativen KI-Systeme fast unbemerkt bleibt, wirft dieser Trend Fragen zur Definition von Menschlichkeit und Intelligenz sowie zu unserem Verhältnis zu diesen neuen Technologien auf. Besteht ein Risiko, wenn man eine Maschine wie einen Menschen behandelt?

Anthropomorphismus von Anfang an

Die Anthropomorphisierung von Maschinen ist nichts Neues. Bereits 1950 entwickelte der britische Mathematiker und Informatiker Alan Turing ein radikales Konzept für die Intelligenz von Maschinen. In seinem Turing-Test wird ein menschlicher Bewerter gebeten, festzustellen, ob es sich bei dem Wesen, mit dem er sich über einen geschriebenen Text unterhält, um einen Menschen oder eine Maschine handelt. Damit soll beurteilt werden, inwieweit Maschinen in der Lage sind, eine menschenähnliche Intelligenz zu zeigen.

Diese bahnbrechende Arbeit von Turing veranschaulicht unsere Tendenz, Maschinen menschliche Eigenschaften zuzuschreiben, und bildete die Grundlage für weitere Erkundungen des Anthropomorphismus.

«Normalerweise erwarten wir von einer Technologie oder einer Maschine, dass sie präzise, spezifisch, schneller und viel effizienter ist als wir», sagt Daniel Huttenlocher, Dekan des Schwarzman College of Computing des MIT und Träger des EPFL-Doktors honoris causa im Jahr 2024. «GenAI-Ergebnisse fühlen sich menschlich an, weil sie menschenähnliche Eigenschaften aufweisen. Sie sind ungenau, anpassungsfähig und überraschend.»

Technologie, die aussieht wie wir

Die Abkürzung KI enthält natürlich das Wort «Intelligenz», aber auch – und das ist noch wichtiger – das Wort «künstlich», wie Johan Rochel, Dozent und Forscher für Ethik und Innovationsgesetze an der EPFL, erklärt: «KI-Systeme basieren auf riesigen Datensätzen und spiegeln die Entscheidungen wieder, die ihnen von ihren Entwicklern beigebracht wurden, wobei sie die eigenen Werte, Überzeugungen und Moralvorstellungen der Entwickler vermitteln.»

Oft beginnt der Anthropomorphismus schon bei der Gestaltung der Schnittstellen von KI-Systemen. Mit anderen Worten: Der Grund, warum Nutzende KI-Maschinen anthropomorphisieren, liegt darin, dass die Maschinen von Anfang an so konzipiert wurden, dass sie menschliche Eigenschaften aufweisen. Amazons Alexa zum Beispiel hat eine warme Stimme und einen menschlichen Namen, und ChatGPT ist genauso höflich und freundlich wie ein Mensch es wäre. «Die besten digitalen Systeme werden mit Blick auf den Benutzer entwickelt und gebaut», sagt Rochel, «je intuitiver sie zu bedienen sind, desto eher werden sie angenommen».

Doch so einfach ist es nicht, Maschinen menschlich erscheinen zu lassen: «Das ist eine echte technische Herausforderung», sagt Marcel Salathé, Co-Leiter des KI-Zentrums der EPFL: «Ein perfekt vermenschlichtes KI-System müsste die menschliche Sprache mit all ihren Nuancen vollständig beherrschen, Emotionen erkennen und entsprechend reagieren, Informationen in Echtzeit verarbeiten, sich an den einzelnen Benutzenden anpassen usw.»

Bildung von Bindungen

Wenn ChatGPT Ihnen viel Glück für Ihre Veranstaltung wünscht, nachdem Sie es aufgefordert haben, Ihnen Ideen für einen Veranstaltungsnamen zu geben, macht das die Interaktion einnehmender und emotionaler – und vermittelt den Eindruck einer freundschaftlichen Beziehung. Diese Art von Anthropomorphismus ist ein strategischer Trick der Systementwickler, um die Benutzenden dazu zu bringen, eine Bindung mit der Maschine einzugehen.

Laut einer aktuellen Studie des EPFL-Professors Robert West kann ein KI-System, das Zugang zu den persönlichen Daten der Benutzer hat, die Meinung der Benutzer ändern, wenn diese mit ihm über ein bestimmtes Thema interagieren. Dies wirft die Frage nach den gesellschaftlichen Auswirkungen der KI auf, da sie nicht nur als verbesserte digitale Technologie eingesetzt werden kann, sondern auch, um Gespräche zu führen, die unsere Entscheidungen beeinflussen können.

Können wir diesen virtuellen Partnern vertrauen?

In der Gesundheitsbranche werden immer mehr anthropomorphe Systeme entwickelt – darunter humanoide Roboter und Chatbots zur moralischen Unterstützung –, um Patienten zu bedienen und zu unterstützen. Solche vermenschlichten, personalisierten virtuellen Systeme sollen Vertrauen schaffen und Bindungen aufbauen.

«Die Nutzenden von heute sind immer besser informiert und wissen um die Möglichkeiten der digitalen Technologie», sagt Rochel, «und die Nachfrage nach Systemen, denen sie vertrauen können, steigt. Das spiegelt sich auch in der Gesetzgebung wider. Obwohl die genaue Definition von 'Vertrauen' variieren kann, ist ein Schlüsselaspekt, dass es durch Beziehungen von Mensch zu Mensch entsteht. In diesem Fall handelt es sich jedoch um Beziehungen zwischen Mensch und Maschine. Alle Funktionen, die den Nutzenden den Eindruck vermitteln, dass sie mit einem Menschen interagieren, sollen Vertrauen aufbauen, aber diese Funktionen sind nicht immer explizit», sagt Rochet, zum Beispiel die Art und Weise, wie ChatGPT seine Antworten liefert, «als ob jemand die Antwort tippen würde, genau wie in einer Messaging-Anwendung». «Die Benutzenden wissen natürlich, dass ChatGPT nicht menschlich ist, aber diese verdeckte Art, eine Unterhaltung mit einem Menschen zu simulieren, ermutigt die Benutzenden, eine Art Beziehung zu der Maschine aufzubauen – eine Maschine, die so tut, als wäre sie wie wir».

Solche simulierten Beziehungen zu einer Maschine können über Smalltalk und freundliche Antworten hinausgehen. In dem 2013 erschienenen Film Her verliebt sich der von Joaquin Phoenix gespielte Hauptdarsteller in seine von Scarlett Johansson gespielte Sprachassistentin. Der Film wirft Fragen zu persönlichen Beziehungen und dazu auf, wie generative KI unser Verhalten beeinflussen kann: «Vertrauen entsteht oft durch die Weitergabe persönlicher und vertraulicher Informationen - was sehr schädlich sein kann, wenn sie in die falschen Hände geraten», sagt Salathé. «Die Privatsphäre der Nutzer steht auf dem Spiel.»

Eine Frage der Sicherheit und Verantwortlichkeit

Wenn wir KI-Systeme als uns ebenbürtig betrachten, sollten sie dann auch dafür verantwortlich gemacht werden können, wenn beispielsweise ein von uns eingereichter Aufsatz Fehler enthält? «Das würde bedeuten, dass KI-Systeme genauso wie Menschen zur Verantwortung gezogen werden können», sagt Rochel, «aber wir sollten nicht vergessen, dass ihre Intelligenz nur künstlich ist. Maschinen können niemals zur Rechenschaft gezogen werden, weil sie nicht völlig autonom sind. Sie können keine anderen Entscheidungen treffen als die, für die sie programmiert worden sind. Wir müssen nach dem Menschen hinter der Maschine suchen. Aber wo liegt die Verantwortlichkeit – beim Entwickler oder beim Nutzenden?»

«Ich verwende gerne die Metapher einer Gabel in einem Toaster», sagt Huttenlocher, «wenn man sich Bilder der ersten Toaster aus den 1900er Jahren anschaut, sieht man schnell, dass man sich durch das Einstecken einer Gabel leicht einen Stromschlag zuziehen konnte. Schliesslich wurden Normen und Sicherheitsvorkehrungen eingeführt, um die Toaster sicher zu machen und zu verhindern, dass ein solcher Missbrauch zur gängigen Praxis wird. Das Gleiche müssen wir mit der KI tun. Wir müssen Schutzmassnahmen gegen den Missbrauch der Technologie einführen, eine rechtliche Verantwortlichkeit schaffen und Standards einführen, die von allen verstanden werden.»

Rochel: «Transparenz wird das A und O sein. Wir müssen die Menschen daran erinnern, dass es sich hierbei nur um Maschinen handelt, die Fehler machen können. Das wird dazu beitragen, das Risiko des Missbrauchs zu verringern.

Der Gesetzgeber debattiert noch darüber, wie Transparenz und Erklärbarkeit in KI-Systemen hergestellt werden können. Das KI-Gesetz der Europäischen Union ist sehr eindeutig: Generative KI-Systeme müssen so gestaltet und präsentiert werden, dass klar wird, dass sie nicht menschlich sind. Die Nutzenden müssen sich voll und ganz bewusst sein, dass sie mit einer Maschine interagieren.

KI und Menschlichkeit: eine durchdachte und kritische Partnerschaft

«Wir können viel von der KI lernen», sagt Huttenlocher, «AlphaGo hat zum Beispiel Strategien für Go entwickelt, an die selbst die besten Spielenden nicht gedacht haben, was dem Spiel eine ganz neue Dimension verleiht. Ich sehe KI als eine Erfindung, die menschliche Fähigkeiten nicht ersetzen, sondern verbessern kann.»

Salathé weist darauf hin, dass «wir durch die Anthropomorphisierung von KI-Systemen die Einführung der Technologie beschleunigen können, aber dies wirft auch grundlegende Fragen über die Rolle des Menschen in einer Welt auf, in der es immer schwieriger wird, Menschen von Maschinen zu unterscheiden. Im Zuge der Weiterentwicklung der KI müssen wir sicherstellen, dass wir bei unseren Interaktionen mit Maschinen – so natürlich sie auch erscheinen mögen – nicht aus den Augen verlieren, was uns zu Menschen macht.»

Für Rochat müssen «KI-Systementwicklende, Interessenvertretungen, Gesetzgeber und Nutzende zusammenarbeiten, um sicherzustellen, dass die Technologie ein Werkzeug in den Händen des Menschen bleibt und nicht zu einer Kraft wird, die ihn ersetzt oder manipuliert.»