Suchmaschinen als Webdesigner – Newsletter 12/2025

Erinnern Sie sich noch an die „10 blauen Links“? So sahen Google-Treffer für die Suche jahrelang aus – eine Liste mit zehn blauen Überschriften, dazugehörigen URLs und kurzen Textschnipseln. Heute sehen wir: KI-Texte, Produktempfehlungen, Wissensboxen und jede Menge Werbung. Die Suchergebnisseite ist zu einer komplexen Oberfläche geworden. Das kommt immer stärker in die Kritik, aber die nächste große Änderung steht schon vor der Tür: maßgeschneiderte Mini-Apps statt klassischer Suchergebnisse.

Screenshots der Trefferseite von Google 2018 und heute. 2018 waren es nur 10 blaue Links mit Beschreibung, heute ist es eine komplexe, oft verwirrende Seite.
Noch 2018 sah die Trefferseite von Google so aus wie links, heute sehen wir die Ansicht rechts – oder etwas noch Komplexeres, je nach Suchanfrage.

Mehr und mehr Menschen haben entdeckt, wie sie das umgehen, was Google seit Jahren die Kassen füllt: die werbefinanzierte Websuche. Sie gehen nicht mehr zu den Suchmaschinen, sondern fragen direkt die KI ihrer Wahl – ChatGPT, Claude, Le Chat.

Google schien diese Entwicklung genauso wie das Rennen um die erfolgreichste KI bisher eher entspannt zu beobachten. Seine KI Gemini schnitt bei den Vergleichen nur mittelmäßig ab. Doch vor wenigen Tagen hat Google Gemini 3 vorgestellt. Dieses LLM ist in vielen Bereichen besser als die Konkurrenz wie ChatGPT oder Claude. Aber das ist nichts Besonderes – häufig sind neu vorgestellte Modelle besser als alle bisherige. Ein paar Wochen später wird das Modell dann von einer Neuvorstellung der Konkurrenz überholt.
Das Besondere ist eine Funktion, die in Europa noch gar nicht zugänglich ist: Dynamic View.

Wenn die Suchmaschine die Treffer selbst programmiert

Diese spezielle Ansicht liefert keine Suchergebnisse als Liste von Treffern, und auch nicht als Text, sondern als Mini-Website. Dynamic View erzeugt als Antwort komplette interaktive Benutzeroberflächen – etwa Simulationen, Vergleichsrechner, Galerien oder komplette Dashboards. Statt nur Text auszugeben, erzeugt die KI per Code also maßgeschneiderte Mini-Apps, die genau zur gestellten Frage passen – oft in weniger als einer Minute. Diese Interfaces entstehen direkt für jede Anfrage neu und verschwinden nach der Nutzung wieder.

Screenshot des Würfelsimulators, den Dynamic View auf eine einfache Suchanfrage erzeugt hat.
Auf die einfache Aufforderung „erkläre die Wahrscheinlichkeit, mit 2 Würfeln eine 8 zu werfen“ erstellt Dynamic View eine Würfelsimulation mit Visualisierung und individualisierten Erklärungen.

Das ist mehr als nur eine Weiterentwicklung. KI-erzeugte Texte als Antwort auf eine Suchanfrage waren nur der Anfang. Wir haben damit oft keinen Grund mehr, eine Website zu besuchen, von der die Informationen stammen – vieles lässt sich mit einem kurzen, speziell von der KI für uns aufbereitetem Text beantworten. Jetzt aber haben wir auch dann keinen Grund mehr, andere Websites zu besuchen, wenn wir Bilder sehen wollen oder komplexere Aufbereitungen möchten. Das macht jetzt die KI alles für uns, genau so aufbereitet, wie wir es brauchen.

Die KI entschiedet nicht nur über die Aufbereitung der Textinhalte, sondern auch über Layout, Interaktionen und die Anzahl und Reihenfolge von Schritten.

Google hat damit faktisch nicht nur in der Hand, welche Inhalte wir sehen, sondern auch in welcher Form wir sie sehen. Bei einem Marktanteil von rund 90 Prozent weltweit ist die Suche von Google der zentrale Zugang zum Web. Was passiert, wenn dieser Zugang nicht mehr nur Inhalte filtert, sondern gleich das komplette Interface dazu liefert?

Noch vor wenigen Woche war meine These, dass Websites wichtig bleiben, auch wenn die KI Inhalte und Besuche vermittelt (Werden Websites wertlos?). Manchmal wollen wir das ganze Erlebnis, wollen alle Bilder und die liebevolle Aufbereitung auf der Original-Website sehen. Was aber, wenn die KI von Google ein so gutes Erlebnis für Suchende stricken kann, dass es oft besser ist als das der Sites, von denen sie die Informationen bezieht?

Wenn Google also jetzt das Interface baut für alle unsere Sites – was bedeutet das für alle, die Websites konzipieren, planen, gestalten und betreiben?

So funktioniert Dynamic View

Auf gemini.google.com finden Sie (wenn Sie in den USA sind, vermutlich bald aber auch in Europa) im Menü „Tools“ die Optionen Dynamic View und Visual View. Derzeit müssen Sie das noch eigens aktivieren, aber das war auch bei den KI-Treffern anfangs so – früher oder später kommen diese Funktionen in die Standard-Suche, ob wir wollen oder nicht.
Dynamic View erzeugt per Code komplette Mini-Sites mit Formularen, Tabellen, Dashboards, Simulationen. Visual View dagegen präsentiert ein Magazin-Layout mit Filtern, Slidern und visuell angereicherten Darstellungen. Wir konzentrieren uns im Folgenden auf das noch mächtigere Dynamic View.

Beides ist ein Beispiel für generative UI (genUI), also automatisch erzeugte Benutzungsoberflächen (user interfaces, UI).

Ein konkretes Beispiel: Sie tippen „vergleiche 5 Computermäuse für Linkshänder“ und bekommen von Dynamic View eine automatisch erzeugte Vergleichstabelle mit Filtermöglichkeiten. Oder Sie sagen „Berechne Kosten und Ertrag einer Solaranlage“ und sehen einen interaktiven Rechner mit Schiebereglern, über die Sie Ihre Investitionssumme, die Platzierung der Solarmodule, ihre Größe und die Einstellungen für den Betrieb variieren können.

Screenshot eines Adventure-Games, das Dynamic View aus einem einfachen Prompt erzeugt hat
Dynamic View beantwortet nicht nur Fragen, sondern erstellt auf Befehl auch einfache, aber liebevoll gestaltete und interessant umgesetzte Mini-Spiele. Zur Unterhaltung oder zum Lernen.

In der Google-Suche selbst laufen Experimente, die Funktion bei passenden Anfragen anzuzeigen. Ergebnisse erscheinen dann nicht als Text, sondern als Mini-App. Der Unterschied zu bisherigen Featured Snippets (Themenkästen): Es geht nicht nur ums Zusammenfassen bestehender Inhalte, sondern um die Neuzusammensetzung mit eigener Interaktionslogik.

Ephemere Interfaces – was bedeutet das?

Hier wird es für UX besonders relevant: Die UI wird on the fly erzeugt, im Moment der Anfrage – nicht vorher entworfen und dann immer wieder ausgeliefert. Es ist also nicht nur so, dass die KI eigenständig die Nutzungsoberfläche erstellt – die könnten wir ja dann testen und verbessern. Sie erstellt die UI erst in dem Moment, in dem sie die Anfrage der Nutzenden bekommt – das heißt, sie ist jedes Mal neu, und wird den Nutzenden sofort präsentiert. Tests können nicht mehr stattfinden.

Und die Oberfläche ist ein Einwegprodukt: Nach Gebrauch wird die UI weggeworfen. Man spricht von „ephemeren“, also flüchtigen Interfaces.

Die Konsequenzen für UX-Design und -Testing sind massiv, etwa:

  • Klassisches UI-Design mit Wireframes und fertigen Screens greift nur noch begrenzt. Wir können nur noch Beispiele und Vorlagen konzipieren und gestalten.
  • Die üblichen Usability-Tests mit 5 Personen, die alle die gleichen Screens sehen und testen, funktionieren nicht mehr – jede Person sieht eine neue, unterschiedliche Version.
  • Konsistenz, einer der Grundpfeiler guter Usability, ist infrage gestellt – jede Nutzung kann völlig anders sein als die vorige.
Screenshot Website thesys, auf dem man sieht, welche genUI-Funktionen der Dienst bietet
Anbieter wie Thesys mit ihrem Dienst C1 erlauben schon heute, KI-Ergebnisse von Sprachmodellen in interaktive Nutzungsoberflächen umzubauen.

Das Web als Wegwerf-Interface

Die Auswirkungen der ephemeren Oberflächen werden konkret spürbar:

Lernförderlichkeit: Es gibt keinen stabilen Screen mehr, den ich mir merken kann. UI-Patterns sind schwieriger zu lernen. „Wo war nochmal der Button für Funktion X?“, funktioniert nicht mehr, wenn das Interface beim nächsten Mal anders aussieht.

Orientierung: Wenn ich dieselbe Aufgabe wiederholt ausführe und jedes Mal ein anderes Layout sehe, kann das frustrieren. „Den Knopf von neulich“ gibt es nicht mehr. „Die praktische Tabelle von gestern“ ist durch eine Galerie ersetzt.

Muskelgedächtnis: Fällt komplett weg. Wir können keine automatisierten Bewegungsabläufe mehr entwickeln. Das klingt unbedeutend, ist aber relevant: Wie oft navigieren Sie, ohne wirklich hinzusehen durch vertraute Anwendungen wie Ihre Banking-App, die Routenplanung oder die für die Fahrplanauskunft?

Teilen und Support: Screenshots helfen nur begrenzt, weil andere Personen eine andere Version sehen. „Klick auf den grünen Button rechts“ – „Welcher blaue Button? Ich sehe drei blaue Links.“

Personalisierung in gut gemacht

Screenshot des Office-Assistenten Clippy, deutsch Karl Klammer
Karl Klammer oder Clippy war der Office-Assistenz von Microsoft, der ab 1997 das Programm personalisieren sollte. Er tauchte oft in unpassenden Momenten auf und gab so wenig hilfreiche Tipps, dass er vor allem für Satire und Spott benutzt wurde. 2008 wurde er ersatzlos abgeschaltet.

Interfaces, die sich an unsere Bedürfnisse anpassen, sind keine neue Idee. In den 1990ern und 2000ern gab es Portale mit personalisierten Startseiten, adaptive Menüs, Office-Assistenten wie Clippy. Die Idee: Das UI passt sich an meine Nutzung an.

Die Probleme damals: Komplexität, Überraschungen, hoher Support-Aufwand. Die regelbasierten Systeme führten oft zu mehr Verwirrung als Nutzen. Außer bei Inhalten hat sich Personalisierung deshalb kaum durchgesetzt.

Generative UI macht nun einen neuen Anlauf – mit einem entscheidenden Unterschied. Die Personalisierung der Oberflächen läuft nicht mehr regelbasiert, sondern über ein statistisches Modell. Das macht sie schwerer vorhersehbar und erklärbar. Gleichzeitig ist KI besser darin, Kontext und Absicht zu verstehen als die starren Regelsysteme von früher.

Was bedeutet das konkret? Die UI könnte auf meine Nutzungssituation reagieren: Audio-only beim Fahren, kompakte Oberfläche unterwegs, große Vergleichstabellen am Desktop. Langfristig könnten persönliche Assistenten wiederkehrende Aufgaben in maßgeschneiderten, einmaligen Tools abbilden – Software, die nur für mich und nur für diesen Moment existiert.

Zwei Probleme bleiben: Erwartungsmanagement und Vertrauen. Die Grenze zwischen redaktioneller UI und KI-generierter UI ist unklar – wer ist wofür verantwortlich? Wenn Layout und Terminologie sich ständig ändern, steigt die kognitive Last. Und: Viele Nutzende verlassen sich dann noch stärker auf Empfehlungen, ohne das zu hinterfragen.

Die Frage ist: Wie viel Instabilität verträgt Alltags-UX, bevor Menschen sich nach stabileren Alternativen umsehen? Nach spezialisierten Apps, klassischen Sites, „KI-freien“ Browsern?

Perspektive Unternehmen und Marken: Sichtbarkeit ohne eigenes Interface

Ihre Marke erscheint in KI-Überblicken, generierten Produktkarten oder Dynamic Views – aber in einer Form, die Google und das Modell bestimmen. „Eine Marke, die für jede:n anders aussieht“: Layout, Texte, Bildsprache können je nach Anfrage variieren.

Ein Beispiel: Eine Luxusmarke erscheint in einer auf eine Anfrage erzeugen Vergleichstabelle neben Discount-Anbietern – ohne Kontrolle über Darstellung, Reihenfolge oder Kontext. Auch die folgende Detaildarstellung ist KI-erzeugt, alle Bilder aller Hersteller im gleichen Format, alle Texte im gleichen Stil. Das widerspricht allem, wofür Brand Management steht.

Und wenn wir die Sache selbst in die Hand nehmen und Generative UI auf unserer eigenen Website einsetzen? Alle Besuchenden bekommen ein genau auf sie zugeschnittenes Interface. Unglaublich personalisiert – aber auch unglaublich schwer kontrollierbar.

Fehler werden nicht ausbleiben – eine rassistische Antwort, eine unpassende Produktempfehlung, eine kaputte Journey. Diese können das Markenvertrauen massiv beschädigen. Luxusmarken und hoch regulierte Branchen (Finance, Healthcare) stehen vor der Frage: Wie viel Kontrolle brauchen wir, bevor wir uns auf generative Oberflächen einlassen?

Screenshot Ergebnis des Shopping-Assistenten in ChatGPT mit Tabelle als Produktvergleich
In ChatGPT gibt es mittlerweile den Modus „Shopping-Assistent“, der Produktempfehlungen macht und direkt in Webshops verlinkt. Produktsuche, Filtern, Empfehlen – alles ausgelagert zur KI, nur noch die Bestellung findet auf der Website des Verkäufers statt. Noch.

Offen bleibt: Wie stelle ich sicher, dass meine Corporate Identity respektiert wird, wenn ich nicht mehr das Interface kontrolliere? Wenn das Google oder ChatGPT tun? Entsteht ein neuer Markt, in dem Unternehmen dafür zahlen, dass ihre CI in generativen Oberflächen korrekt abgebildet wird – etwa durch zertifizierte Brand-Profile oder UI-Pattern-Feeds für Plattformen?

Monetarisierung und Conversion

KI-Übersichten und generative Suchflächen enthalten bereits Werbung, Google experimentiert immer mit neuen Werbeformen. Und bei OpenAI deutet alles darauf hin, dass zumindest in der kostenlosen Version Werbung bald eine wichtige Rolle spielen wird in ChatGPT.

Die Konsequenz: Konversion kann innerhalb der erzeugten Oberflächen passieren – ohne sichtbaren Besuch auf der eigenen Site. Klassische KPIs wie Sessions und Pageviews verlieren an Aussagekraft. Sichtbarkeit hängt vom Ranking der KI ab – GEO statt SEO (siehe auch GEO statt SEO – oder alles vergebliche Mühe?).

Wo wir stehen – und was wir nicht wissen

Im Newsletter 08/2025 schrieb ich: „Websites bleiben wichtig.“ Heute würde ich ergänzen: Websites bleiben wichtig – aber ihre Rolle als primäres Interface wird in vielen Szenarien von generativen Schichten überlagert.

Was wir mit Sicherheit sagen können: Google hat dank Suche (90% Marktanteil), Browser (Chrome, 70% Marktanteil), Android (70%), Gmail und Workspace (Google Docs etc.) die Macht, generative UI in den Alltag zu bringen. Sie haben auch das Geld, fast unbegrenzt in Entwicklung und Marketing zu investieren. Und die Möglichkeit, Fehlschläge wegzustecken. Mit Dynamic View haben sie eine Technik an den Start gebracht, die sie in den nächsten Monaten an mehr und mehr Nutzenden testen werden – und die sie weiter verbessern werden. Für Nutzende bedeutet das mehr Bequemlichkeit – und das ist immer ein sehr starker Anreiz. Dinge, die uns das Leben leichter machen, die uns einfach so präsentiert werden, ohne dass wir aktiv etwas dazu tun müssen, setzen sich meist schnell durch.

Was unklar bleibt: Wie werden Menschen auf die Instabilität generativer UI reagieren? Gibt es eine Schwelle, ab der diese extreme Personalisierung mehr schadet als nutzt? Werden Marken akzeptieren, dass sie ihr primäres Interface nicht mehr selbst gestalten – oder gibt es eine Gegenbewegung? Welche neuen Geschäftsmodelle entstehen? Zahlen Unternehmen künftig dafür, dass ihre Corporate Identity in generativen Oberflächen respektiert wird? Verändern sich die Rollen im Bereich UX-Design grundlegend – wird KI-Orchestrierung zur Hauptaufgabe?

Meine Arbeitshypothesen: Designsysteme werden wichtiger denn je, aber nicht als Styleguides für Menschen, sondern als maschinenlesbare Regel-Sets. Pattern Libraries könnten zur Schnittstelle zwischen Marke und KI werden. Mess- und Monitoring-Konzepte werden wichtiger, weil wir nicht mehr alles vorab testen können.

Hybrid-Modelle scheinen vernünftig: stabile Kern-UIs für kritische Aufgaben wie Login und Bezahlung, generative Bereiche für Recherche und Produktauswahl. Wir müssen dabei die richtige Balance finden.

Was schwer vorhersehbar ist: Ob diese Entwicklung schnell kommt und ob es eine Gegenbewegung gibt. Ob regulatorische Eingriffe durch die EU oder andere globale Player Google bremsen. Ob andere Unternehmen alternative Modelle etablieren können. Und ob wirklich Google das Rennen macht oder ob eine der KI-Firmen Google überholt. Oder noch eine andere, die wir noch gar nicht auf dem Schirm haben.

Die Entwicklung ist jedenfalls im Gang. Was daraus wird, hängt auch davon ab, wie wir als Gestaltende, als Unternehmen und als Nutzende damit umgehen. Was denken Sie dazu? Ich freue mich über Ihre Perspektive in den Kommentaren!

Empfehlenswerte Links zu mehr Infos

https://research.google/blog/generative-ui-a-rich-custom-visual-interactive-user-experience-for-any-prompt/
Vorstellung der Funktionen von Dynamic View mit ein paar animierten Grafiken bei Google selbst (englisch). Zum ersten Einstieg ok.

https://generativeui.github.io/
Die Projekt-Site mit Link zum Paper, was das System vorstellt und vor allem zu den fertigen Mini-Sites, die das LLM erzeugt hat. Diese wurden in der Studie mit anderen Suchergebnissen bzw. Websites verglichen wurden. Zumindest die Mini-Sites unbedingt ansehen!

https://www.derstandard.de/story/3000000296969/gemini-3-ist-da-google-verspricht-grossen-leistungssprung-fuer-kuenstliche-intelligenz
Gute deutschsprachige Zusammenfassung der neuen Fähigkeiten von Gemini 3.

https://rogerwong.me/2025/11/generative-ui-and-the-ephemeral-interface
Einschätzung eines UX-Profis, die mir sehr fundiert und durchdacht erscheint. Lesenswert!

https://techscoop.substack.com/p/openai-vs-google-the-battle-for-ai
Konzentriert sich auf wirtschaftliche Aspekte und Google’s Position auf dem Markt. Lang und etwas trocken, aber lohnend.

Schreibe einen Kommentar