Ihr User ist nicht Tim, 36, alleinstehend – Newsletter 4/2026

Tim ist 36 Jahre alt, lebt allein in einer Großstadt und interessiert sich für Fitness und Nachhaltigkeit. Er achtet auf seine Ernährung, kauft bevorzugt online und legt Wert auf ein gutes Preis-Leistungs-Verhältnis. Was ihn nervt: Er findet kein Angebot, das wirklich zu ihm passt.

Klingt vertraut? Klingt plausibel? Klingt nach einer soliden Nutzerbeschreibung?

Tim ist in dreißig Sekunden entstanden. Ein Prompt, ein Klick – fertig. Kein Interview, keine Beobachtung, kein einziger Kontakt mit einem echten Menschen. Mike ist ein Phantom. Ein Ergebnis ohne Eingabe.

Alles beginnt mit Verstehen

Wenn wir Produkte entwickeln, Websites gestalten oder Text schreiben, müssen wir wissen, für wen wir das tun. Gute Inhalte und Produkte entstehen nicht im luftleeren Raum. Sie entstehen aus dem Verständnis der Menschen, die sie nutzen sollen. Das ist auch tragendes Grundprinzip der User Experience, aber es ist weit darüber hinaus relevant: im Marketing, in der Produktentwicklung, in der Startup-Welt. Wer nicht weiß, was Menschen brauchen, wo ihre Schmerzpunkte liegen und welche Erwartungen sie haben, produziert am Bedarf vorbei.

Um das zu vermeiden, haben wir in den letzten Jahrzehnten viele effektive und effiziente Methoden perfektioniert, um die relevanten Infos zu bekommen. Sie alle setzen auf den direkten Kontakt mit Menschen: Interviews, Beobachtungen, Usability-Tests. Wir sprechen mit echten Menschen, hören zu, fragen nach, beobachten, wie sie sich verhalten – nicht nur, was sie sagen. Das ist aufwendig, manchmal mühsam, aber immer lohnend. Jedes einzelne Mal lernen wir etwas, was wir noch nicht wussten.

Nun kommt KI und verspricht, diesem Prozess radikal zu vereinfachen. Wie jeden anderen auch. Die Frage ist nur: Sind wir gut beraten, das hierbei zu tun?

Etliche Anbieter meinen ja. Firmen wie Synthetic Users oder Simile – letztere haben gerade 100 Millionen Dollar Venture Capital eingesammelt – bieten einen Service an, der Nutzende simuliert. Grundlage sind Daten, verarbeitet von großen Sprachmodellen (LLMs). Manche Dienste erstellen Personas, andere führen simulierte Interviews, wieder andere lassen KI-erzeugte Nutzer Prototypen testen. Der Markt wächst schnell, die Versprechen sind groß: User Research in Minuten statt in Wochen, für ein paar Euro statt vierstelligen Beträgen.

Natürlich steckt hinter diesen Systemen deutlich mehr als hinter dem simplen Prompt, mit dem Tim, 36, alleinstehend, entstanden ist. Die Frage ist nur: Können die Systeme wirklich echte Erkenntnis bringen?

Wie Personas traditionell entstehen

Um das zu beantworten, müssen wir verstehen, wie Erkenntnis über Nutzende bisher entsteht. Nehmen wir Personas – prototypische Darstellungen einer Zielgruppe, die aus einer abstrakten Beschreibung eine greifbare Figur machen. Eine Persona bekommt ein Foto, einen Namen, bestimmte Eigenschaften. Damit sich ein Team vorstellen kann, für wen es ein Produkt entwickelt.

Ich habe über die Jahre dutzende Persona-Workshops moderiert. Mit Freude und Gewinn. Diese Workshops sind für das Team eine großartige Gelegenheit, sich darüber auszutauschen, was sie über ihre Nutzenden wissen. Und darüber, welche Wissenslücken sie diesbezüglich haben. Es ist eine Übung in Teamkommunikation, Wissenstransfer und Empathie.

Ich habe es abgelehnt, Personas für ein Team zu erstellen, statt mit dem Team. Denn das Erstellen der Persona, der Prozess, ist wichtiger als das Ergebnis, ein Stück Papier, das man an die Wand hängen kann.

Ein Beispiel aus der Praxis: Im Workshop sagt die Produktmanagerin, der typische Nutzer sei technikaffin und wolle möglichst viele Features. Der Support-Leiter widerspricht: Aus seinem direkten Kontakt mit Nutzenden weiß er, dass die meisten schon mit den Grundfunktionen überfordert sind. Dazu brauchte es nicht einmal Nutzerforschung, User-Tests oder Analyse der Zugriffszahlen. Nur zwei Menschen mit ihrem jeweiligen Wissen in einem Raum. Die Diskussion, die entsteht, ist oft unbequem. Aber genau hier passiert Erkenntnisgewinn. Das Team muss klären, wie (und wer) die Nutzenden wirklich sind – und nicht, wie (und wer) sie sein sollen.

Aber kann uns da nicht die KI helfen? Sie hat doch mit ihren Trainingsdaten viel, viel, viel mehr Infos über Nutzende mitbekommen als wir je Teammitglieder in einen Raum setzen können?

Kann aus Bestehendem Neues entstehen?

Grundsätzlich müssen wir uns fragen: Kann aus einem großen Bestand vorhandener Daten – nichts anderes ist ein Sprachmodell – neue Erkenntnis entstehen?

Die kurze Antwort: Ja. Auf den ersten Blick wirkt das vielleicht paradox. Das ist es aber nicht: Wenn ich etwa die Zugriffszahlen meiner Website der letzten 2 Jahre ansehe, arbeite ich mit vorhandenen Daten. Für mich gewinne ich daraus aber dennoch neue Erkenntnisse. Ich sehe, über welche Websites, Suchmaschinen oder KIs Besuchende zu mir finden. Wie viele und welche Seiten sie ansehen. Einsichten können entstehen, indem vorhandene Daten neu kombiniert werden, indem Muster sichtbar werden.

Genauso ist es mit der Analyse von Nutzerinterviews: Die Daten liegen schon vor – und trotzdem entdecken wir darin Bedürfnisse oder Probleme der Nutzenden, die uns vorher nicht bewusst waren. Wenn Sie 8 Interviews selbst auswerten, lesen Sie zwischen den Zeilen. Sie erkennen Zögern, Widersprüche, unausgesprochene Bedürfnisse. Sie bringen Ihr eigenes Kontextwissen ein. Am Ende haben Sie nicht nur eine Liste von Erkenntnissen/Findings – Sie haben ein Gespür für die Nutzenden entwickelt. Dieses Gespür in ein Dokument zu bringen, ist ausgesprochen schwierig. Und andere dazu zu bringen, Empathie für die Nutzenden zu entwickeln, ist nahezu unmöglich, nur indem diese Ihr Dokument lesen.

Aber selbst Erkenntnis entsteht für uns Menschen nicht allein dadurch, dass wir etwas lesen. Erkenntnis entsteht dadurch, dass wir etwas verstehen. Lagern wir sowohl das Produzieren als auch das Analysieren an eine KI aus, dann fehlt möglicherweise genau dieser Schritt. Sie bekommen ein Ergebnis. Aber haben Sie auch etwas begriffen?

Was die KI liefert, sind plausible Neuformulierungen auf Basis vorhandener Daten. Die sehen aus wie Erkenntnis – ohne solche zu sein. Zu Erkenntnis werden sie erst, wenn Sie sie prüfen, einordnen und mit Ihrer Erfahrung abgleichen.

Synthetische User: Wo entsteht der Erkenntnisgewinn?

Kann also die Arbeit mit synthetischen Usern überhaupt Erkenntnisse liefern? Ergebnisse liefern sie, und das beeindruckend schnell. Aber entsteht Erkenntnisgewinn? Und wenn ja, bei wem?

Ein konkretes Beispiel: Sie füttern ein Tool mit den Daten Ihres letzten Usability-Tests. Dann lassen Sie das System selbst ein Interview mit einer synthetischen Nutzerin führen. Sie sehen die Antworten an, das klingt alles plausibel, die Bedürfnisse und Frustrationen sind nachvollziehbar. Aber kommen diese Einsichten wirklich alle aus Ihren Daten – oder hat das Sprachmodell Lücken mit dem geschlossen, was es über vergleichbare Produkte über die Trainingsdaten mitbekommen hat? (Halluzination) Um diese Frage zu beantworten, müssen Sie tiefer in die Analyse Ihrer eigenen Daten einsteigen. Sie müssen also doch wieder selbst ran. Ist das effizient?

Screenshot der Website von simile.ai. Abgebildet sind Menschen auf der Straße, die einer Band zuhören, die auf der Straße spielen. Text: Simile is a simulation platform for human behavior
Similie.ai will mit KI Vorhersagen darüber treffen, was Menschen mögen.

Aber nehmen wir an, die Systeme bekämen das Problem der Halluzination in den Griff (was viele Expertinnen und Experten für KI aus theoretischen Gründen bezweifeln). Sie treten also mit einer KI-generierten Persona in einen Dialog, gefüttert mit Ergebnissen von Tests oder Interviews. Dabei können Sie sich von der Persona erzählen lassen, wie sie Dinge nutzt, wie sie arbeitet, wie sie ihre Freizeit verbringt. Sie können nachfragen – und vor allem die Antworten hinterfragen, die Antworten der KI gegen Ihr Wissen und Ihre Erfahrung mit der Zielgruppe prüfen, Widersprüche aufdecken. Dabei kann Erkenntnisgewinn entstehen. Aber das ist dann Ihre Leistung, nicht die der KI. Die KI hat Ihnen dann lediglich bei der Aufbereitung der Daten geholfen.

Screenshot fiktiver Dialog mit einer Persona, die von Gemini gespielt wird
Ein echtes Interview hochladen, einer KI wie Gemini sagen, sie soll sich wie die interviewte Person verhalten und schon kann man mit Nutzenden sprechen.

Ohne eine solche aktive Auseinandersetzung mit der KI bekommen Sie sicher professionell aussehende Dokumente – aber Sie haben nichts dabei gelernt. Und noch schlimmer: Sie merken es nicht einmal.

Ein weiteres Problem, das wir immer haben: Wir müssen wissen, was wir tun. Wie bei jeder anderen Methode gilt bei der Arbeit mit KI die alte Weisheit: Garbage in, garbage out (geben wir Mist rein, bekommen wir Mist raus). Bitten wir eine KI, „eine Persona von Tim, 36 Jahre alt, alleinstehend, interessiert sich für Fitness“ zu erstellen, liefert die nur Klischees. Vorhersehbare Frustrationen, generische Bedürfnisse, austauschbare Zitate. So ein Resultat ist schlechter als gar keines – denn es erweckt den Anschein, wir hätten uns mit der Zielgruppe auseinandergesetzt, haben es aber nicht.

Anders sieht es aus, wenn Sie der KI z.B. die Transkripte von 8 echten Nutzerinterviews geben und sie bitten, Muster zu identifizieren. Das ist eine andere Qualität von Input – und kann zu einer anderen Qualität von Output führen. Aber auch hier gilt: Das Ergebnis ist ein Ausgangspunkt, kein Ziel. Es ersetzt nicht Ihre eigene Interpretation, Ihre Auseinandersetzung mit den Ergebnissen.

4 goldene Regeln für die Zusammenarbeit mit KI

Ist die KI also nutzlos für das Verständnis von Nutzenden? Nein. Aber sie ist kein Ersatz fürs selber-Denken. In meiner Arbeit orientiere ich mich an vier goldenen Regeln:

1) KI ist Partnerin, nicht Packesel. Nutzen Sie KI als Sparringspartner: Sie bringt Perspektiven ein, auf die Sie allein nicht gekommen wären, und zwingt Sie, Ihre Annahmen zu überprüfen. Aber der Erkenntnisgewinn entsteht nicht in der KI. Er entsteht in Ihnen – in der Auseinandersetzung mit dem, was die KI liefert.

2) KI braucht gute Wegweisung. Je klarer Ihre Vorgaben, desto besser das Ergebnis. Die KI fragt nicht nach, wenn ihr Informationen fehlen – sie rät/halluziniert. Und wer vage fragt, bekommt vage Antworten. Das bedeutet auch: Bevor Sie die KI einsetzen, müssen Sie selbst wissen, wonach Sie suchen. Das setzt unter anderem voraus, dass Sie sich schon mit Ihrer Zielgruppe beschäftigt haben.

3) KI kann in die Irre führen. Jede KI klingt immer überzeugt – auch wenn sie völlig falsch liegt. Stichwort Halluzinationen: Sprachmodelle produzieren plausibel klingende Texte, unabhängig davon, ob der Inhalt stimmt. Kritisches Hinterfragen bleibt Ihre Aufgabe. Gerade bei Aussagen über Nutzende, die Sie nicht prüfen können, ist Skepsis Pflicht.

4) Keine KI passt in jedes Team. Ein Sprachmodell ist kein Ersatz für einen Usability-Test. Keine KI der Welt kann Ihnen zeigen, wie ein Mensch an Ihrer Anwendung scheitert, wenn nie ein Mensch davor gesessen hat. Wählen Sie die richtigen Werkzeuge für die jeweilige Aufgabe – und akzeptieren Sie, dass manche Aufgaben nach wie vor Menschen erfordern. Und: Nicht jede KI ist für jede Aufgabe geeignet.

Vier Spielkarten mit Illustrationen und kurzen Aussagen veranschaulichen „die 4 goldenen Regeln zur Arbeit mit KI“: „KI ist Partnerin, nicht Packesel“ – Eine Person und ein Roboter gehen Hand in Hand, was auf Zusammenarbeit hindeutet. „KI braucht gute Wegweisung“ – Ein Roboter folgt einem Wegweiser mit der Aufschrift „DORTHIN“ und hält ein Smartphone in der Hand, das Navigation symbolisiert. „KI kann in die Irre führen“ – Ein Roboter zeigt in die entgegengesetzte Richtung wie das Schild, vor dem er steht, was auf mögliche Fehlleitungen durch KI hinweist. „Keine KI passt in jedes Team“ – Eine Person mit Rucksack steht mit einem Saugeroboter vor einer Berglandschaft, was auf die Notwendigkeit von passender KI für die Aufgabe hinweist.
Die 4 goldenen Regeln zur Arbeit mit KI

Wer nicht knetet, lernt nichts

Von Jared Spool, einem der bekanntesten UX-Experten weltweit, stammt folgende nützliche Unterscheidung: Im Designprozess gibt es Artefakte und Deliverables (Projektdokumente).

Artefakte sind Dinge, die im Prozess entstehen, die aber nicht für sich stehen. Also etwa Post-its, Handskizzen, Scribbles, Whiteboard-Anschriften, Ablaufpläne, erste handschriftliche Entwürfe. Sie dokumentieren den Denkprozess. Deliverables dagegen sind ausgearbeitete Ergebnisse, Diagramme, Dokumente, Schaubilder etc. Sie werden an andere weitergegeben und sollen für sich verständlich sein. Dabei kann ein Artefakt durch etwas Kontext und Aufbereitung zum Deliverable werden – so etwa ein Smartphone-Foto des Whiteboards, wenn es in einem Dokument mit erklärendem Text eingebettet ist und den aktuellen Projektstand dokumentiert.

Spools Bild dafür ist die von Teig und Kuchen. Das Artefakt ist der Teig – formbar, unfertig, kein Endprodukt. Genießbar, aber nicht in größeren Mengen. Das Deliverable dagegen ist der fertige Kuchen – repräsentativ, appetitlich, gut zu teilen und abgeschlossen. Spools Pointe: Der Erkenntnisgewinn steckt fast immer im Teig-Stadium. Wer nur den fertigen Kuchen bekommt, hat nichts gelernt, keinen eigenen Erkenntnisgewinn genossen.

Genau das passiert, wenn wir KI die gesamte Arbeit überlassen. Sie liefert den Kuchen. Perfekt glasiert, schön anzusehen. Aber niemand hatte den Teig in den Händen. Niemand hat geknetet, probiert, optimiert, gelernt.

Die Frage ist also nicht, ob KI beim Verstehen von Nutzenden helfen kann. Das kann sie. Die Frage ist, unter welchen Bedingungen sie zu echtem Verständnis beiträgt – und wann sie nur den Anschein von Verständnis erzeugt. Der Unterschied ist nicht die Technologie. Der Unterschied ist die Haltung und der praktische Einsatz der Technik.

Wenn Sie einen neuen Kuchen kreieren, lernen Sie am meisten aus den Versuchen, die nicht funktionieren. Aus dem Ergebnis, das der Zielgruppe nicht schmeckt. Aus der Erkenntnis, dass Ihre Annahmen über die Zielgruppe falsch waren. Dass Tim gar nicht so heißt, nicht 36 ist und er nicht allein lebt. Dass die echten Menschen komplizierter sind als jede Persona – und dass genau darin die Erkenntnis liegt.

Nicht die KI liefert Ihnen die Erkenntnis. Der Erkenntnisgewinn entsteht in der Ihrer Auseinandersetzung mit ihr.

Ich habe das Thema synthetische User kürzlich auch in einem UX-Tutorial für den Berufsverband German UPA ausführlich durchgearbeitet. Mitglieder können die Aufzeichnung in der Mediathek der German UPA kostenlos ansehen.

Schreibe einen Kommentar