Kann KI Empathie? – Newsletter 11/2025

Wir brauchen mehr Neugier, weniger Empathie hatte ich im letzten Newsletter argumentiert. Neugier bringen die meisten mit, manchmal mangelt es aber ein einer weiteren entscheidenden Grundvoraussetzung für gute Designarbeit: Bescheidenheit. Die Bescheidenheit, dass wir nie wissen, ob unsere Lösung funktioniert. Und die Bescheidenheit zu erkennen, dass wir uns nicht so gut in andere hineinversetzen können, wie wir glauben. Unsere eigenen Vorurteile und unserer Projektionen stehen uns dabei im Weg.

Das zeigt sich z. B., wenn wir Empathie falsch verstehen: Stellen Sie sich vor, im Usability-Test bricht eine Person den Checkout ab, als die Versandkosten erscheinen. Vielleicht denke ich mir: „Ich fühle mit dieser Person – mir wären die Kosten auch zu hoch. Klar, dass sie abbricht.“

Definition Empathy: In order to get to new solutions, you have to get to know different people, different scenarios, different places.
Empathie als Basis des Verstehens der Nutzenden (aus The Field Guide to Human-Centered Design von IDEO)

Aber: Ich verschiebe damit die Perspektive zu mir. Ich bilde mir ein, zu wissen, was das Problem ist – basierend darauf, wie ich mich fühlen würde. Vielleicht war aber der Grund aber ein ganz anderer: Die Testperson war unsicher, ob die Zahlung sicher ist. Oder sie hat das Eingabefeld für den Rabattcode nicht gesehen. Oder sie wollte nur die Gesamtkosten prüfen und kommt später wieder.

Bilde ich mir etwas auf meine Empathie ein, kann mich das in die Irre führen. Als guter UXler muss ich nüchtern beobachten, was tatsächlich passiert, ohne vorschnelle Schlüsse. Eventuell bei der Testperson nachfragen: „Was geht Ihnen gerade durch den Kopf?“ Die echten Gründe verstehen, nicht die von mir angenommen.

Dieses Problem wollen einige jetzt mit KI lösen. KI hat keine Gefühle, keine Vorurteile, keine Projektionen. Klingt vielversprechend. Oder?

Ich denke nicht. Denn gerade die KI hat ein massives Bescheidenheits-Problem. Large Language Models wie ChatGPT, Claude oder Gemini tun oft, als hätten sie die Weisheit mit Löffeln gefressen. Sie halluzinieren munter drauflos, erfinden Fakten und Antworten – und das alles mit einer Selbstsicherheit (confidence), die jeden Zweifel im Keim erstickt. Und das Schlimme: Dieses Problem der Overconfidence und das der Halluzinationen bekommen wir nicht aus den LLMs raus – meinen zumindest viele, die sich mit der Entwicklung von KI auskennen.

Und doch meinen einige Forschende, dass uns KI helfen kann, Probleme und Bedürfnisse von Nutzenden zu verstehen – ist da vielleicht doch was dran?

Was KI emotional kann – und was nicht

KI kann keine affektive Empathie. Sie fühlt nicht mit, sie hat keine Emotionen. Was sie aber kann: Emotionen entziffern – so wie wir als rationale Beobachtende das auch tun. Sie erkennt Muster in Daten, zieht nüchterne Schlüsse aus Aussagen und Verhaltensweisen. Also kognitive Empathie kann sie.

Das könnte uns doch bei unserem Empathie-Problem helfen. Erika Hall schreibt in ihrem Essay Everyday Empathy zum Begriff Empathie:

Der Begriff ist problematisch, weil er eine grundlegend menschliche Reaktion (Empathie) vermischt mit einem Prozess, der kritisches Denken erfordert (Evidenz-basiertes Design).

Bei UX-Empathie geht es nicht ums Mitfühlen, sondern ums Verstehen – was die Person denkt, fühlt, tut. Und dafür brauchen wir Daten, keine Gefühle.

Der Ansatz: KI als Co-Researcher

Es gibt Forschung, die in diese Richtung geht. KI beim User Research nutzen für Mustervergleich und Datenanalyse. KI projiziert nicht ihre eigenen Erfahrungen. Sie bleibt objektiv-analytisch, wo affektive Empathie uns in die Irre führt. Das Paper Toward Artificial Empathy for Human-Centered Design: A Framework schlägt vor, KI als Assistenz im Human-Centered Design einzusetzen – nicht als Maschine, die Gefühle vorspielt, sondern als Werkzeug, das den Empathie-Prozess unterstützt.

Die Autoren denken an ein mehrstufiges System: Die KI sammelt und strukturiert Daten aus Interviews und Videos. Sie analysiert Emotionen, leitet Gründe ab, bildet Hypothesen zu verborgenen Bedürfnissen. Und sie visualisiert die Einsichten – zum Beispiel als Storyboards.

Wichtig ist: Die Forschung bleibt auch nach diesem Konzept menschzentriert. Wir befragen und beobachten reale Nutzende, echte Menschen. Die KI hilft beim Sammeln, Auswerten und Entwickeln von Lösungsideen.

Kurz: KI als Co-Researcher statt als Empathie-Maschine. Die KI hilft beim Sammeln, Verstehen, Zeigen – während echte Kontakte zu Nutzenden die Grundlage bleiben.

Die Gefahr: Pseudo-Research mit KI-Personas

Aber es gibt Anbieter auf dem Markt, die einen ganz anderen Ansatz verfolgen. Tools, die versprechen, User Research durch KI zu ersetzen. Kein Recruiting mehr, keine lästigen Terminabsprachen, keine echten Menschen. Stattdessen: Gespräche mit KI-Personas.

Der bekannteste Vertreter ist Synthetic Users. Der Dienst verspricht „user research without the headaches“ – Nutzungsforschung ohne Stress. Er erzeugt „synthetische Interviews“ mit Fake-Personas, mit denen Sie sich unterhalten können, als wären es echte Nutzerinnen und Nutzer. Ähnliche Anbieter sind Brox.ai, Delve AI oder Viewpoint.ai.

Screenshot Synthetic Users Website
Anbieter wie Synthetic Users versprechen Daten für das menschzentrierte Design ohne Menschen.

Das Problem: Das fühlt sich an wie echter Research. Wie beim echten Research stellen Sie Fragen, die KI-Persona antwortet. Sie können nachhaken, tiefer bohren. Die Antworten klingen plausibel, durchdacht, menschlich. Klingen wahrscheinlich.

Aber sie sind komplett erfunden. Klar, erfunden auf Basis einer bestimmten Datenbasis. Vielleicht sogar auf Basis von Interviews, die Sie selbst geführt haben mit Nutzenden.

Doch: Die KI improvisiert. Sie erfindet eine komplette Person mit Meinungen, Bedürfnissen, Verhaltensweisen. Sie erfindet Antworten auf Basis von Mustern aus ihrem Training, nicht auf Basis echter Bedürfnisse echter Menschen. Alles, was sie wiedergeben kann, sind die Vorurteile aus ihren Daten. Ähnlich wie wenn Sie jemandem ein Interview-Transkript in die Hand geben und sagen: „Jetzt spiel du mal meine Nutzerin Carlotta.“ Ihr Gegenüber kann Sätze aus dem Interview zitieren, vielleicht ein paar naheliegende Schlüsse ziehen. Aber sobald Sie eine Frage stellen, die nicht im Transkript steht, muss die Person improvisieren. Sie erfindet. Und Sie als Fragesteller merken das nicht.

Genau das passiert mit KI-Personas. Und das macht sie gefährlich. Sagt, wenig verwunderlich, auch die Nielsen Norman Group, die Firma der Usability-Profis Jakob Nielsen und Don Norman. Der UX Experte und Psychologe Christopher Roosen bringt es auf den Punkt in seinem großartigen Artikel Using Generative AI To Make Synthetic Users is not Design Research, it’s a Misleading Form of Navel Gazing: Synthetische Personas sind „eine naive, eigennützige, irreführende und vielleicht sogar gefährliche Form fehlgeleiteter Nutzenden- und Designforschung“. Roosen’s Beitrag ist sehr fundiert und setzt sich wissenschaftlich tief mit mehreren Papers zum Thema auseinander.

Ein großes Problem mit dieser Art von „User Research“: Wir können nicht unterscheiden, wo echte Insights aufhören und Halluzinationen beginnen. Die KI weiß es selbst nicht. Sie gibt jede Antwort mit der gleichen Selbstsicherheit. Von Bescheidenheit keine Spur.

Person, die einen Spiegel hält, in dem man statt ihres Gesichts den Himmel sieht
KI-Personas spiegeln nur wider, was sie an Vorurteilen und Durchschnittsreaktionen kennen – manchmal angereichert durch Halluzinationen.

Was wir wirklich brauchen: Evidenz statt Empathie

Indi Young, Autorin des Buchs Practical Empathy, schreibt in ihrem Artikel Insta-Personas & Synthetic Users über echte Empathie im Design: Das ist vor allem kognitive Perspektivübernahme – kein spontanes Mitfühlen, sondern diszipliniertes Zuhören und methodische Auswertung.

Und genau hier liegt das zentrale Problem mit Synthetic Users: Sie liefern keine Evidenz. Sie simulieren User Research lediglich. Die Arbeit mit ihnen bringt keine neuen Einsichten, denn sie können nur vorhandene wiedergeben oder sie erfinden Antworten auf Basis statistischer Muster.

Es ist wie wenn mich Auftraggebende fragen: „Du machst doch seit über 20 Jahren Websites – weißt du nicht mittlerweile, wie eine gute Website aussieht? Warum noch Usability-Tests?“

Meine Antwort: „Klar, wenn deine Website aussehen soll wie jede andere, dann kann ich dir sagen, wie sie sein soll. Wenn du aber etwas Individuelles willst, das genau deiner Zielgruppe dient, deiner Marke entspricht, dann müssen wir testen. Denn jedes Produkt, jede Zielgruppe, jeder Kontext ist anders.“

Genau so ist es mit KI: Sie kann auf Basis von allgemeinem Wissen Standardlösungen vorschlagen. Standardreaktionen von Menschen im Durchschnitt vorhersagen. Aber die konkreten Probleme Einzelner mit Ihrer speziellen Anwendung, die nicht in ihren Trainingsdaten sind, die kann sie nur erfinden.

Fazit: Die „Headaches“ mit den Usern sind das Feature

KI hat Potenzial als Analyse-Werkzeug. Als Unterstützung, die uns beim Sammeln, Strukturieren und Visualisieren von Daten unterstützt. Als System, das uns hilft, aus vielen Interviews und anderen Daten Muster herauszufiltern. Sogar dabei, Lösungen für gefundene Probleme zu finden.

Die Versuchung, KI als Abkürzung für alles zu nehmen, ist groß. „User research without the headaches“ – wer will das nicht?

Aber genau diese „Headaches“ sind der Kern von User Research. Die echten Menschen mit ihren echten, oft überraschenden Bedürfnissen. Die Momente, in denen wir merken: „Das hätte ich nie gedacht.“ Die Erkenntnisse, die nur entstehen, weil wir unsere Annahmen an der Realität testen – und manchmal scheitern.

KI-Personas können uns das nicht geben. Sie können uns nur das widerspiegeln, was in den Trainingsdaten steckt – plus eine ordentliche Prise Halluzination.

Darstellung Usability-Test; Testperson arbeitet an PC, Moderator beobachtet
Langweilig, aber unverzichtbar: User Research mit echten Menschen. (So stellt sich Midjourney einen Usability-Test vor – weitgehend korrekt, wenn man nichtig promptet.)

Nutzen Sie KI für das, was sie kann: Als ein mächtiges Werkzeug zur Analyse echter Research-Daten. Zur Ideenfindung. Aber lassen Sie sich nicht verführen von der Illusion, echte Menschen durch synthetische ersetzen zu können.

Denn am Ende bauen wir nicht für den statistischen Durchschnitt, nicht für Wahrscheinlichkeiten oder fiktive Personas. Wir bauen für echte Menschen. Und die sind unvorhersehbar, manchmal unlogisch und immer wieder überraschend.

Wir brauchen also die Bereitschaft, echten Menschen zuzuhören, überrascht zu werden – und auch mal falsch zu liegen. Die Art Empathie, für die man keine möglichst dicken Rechner braucht, sondern nur Neugier und Bescheidenheit.

Links

Using Generative AI To Make Synthetic Users is not Design Research, it’s a Misleading Form of Navel Gazing
Christopher Roosens lange, wissenschaftlich fundierte und unbedingt lesenswerte Auseinandersetzung mit dem Thema. Wenn Sie nur einen Artikel lesen, sollte es der sein. Ist er Ihnen zu lang oder zu Englisch, sprechen Sie mit einer KI darüber, das können die hervorragend.

Insta-Personas & Synthetic Users
Indi Young über die Grenzen von KI-generierten Personas.

Synthetic Users: If, When, and How to Use AI-Generated „Participants“
Die Nielsen Norman Group testet „Synthetic Users“ – und ist nicht begeistert.

Everyday Empathy
Erika Hall erklärt, warum „Empathy“ als Gefühlswort mit Evidenz verwechselt wird.

AI-Generated Synthetic Research: Garbage In, Garbage Out
Martin Tutko schreibt in seinem Essay über das zentrale Problem: Es fühlt sich richtig an. Aber es ist nur Show.

Toward Artificial Empathy for Human-Centered Design: A Framework
Qihao Zhu und Jianxi Luo schlagen vor, KI als Co-Researcher einzusetzen – als Assistenz, nicht als Ersatz.

Schreibe einen Kommentar