Large Language Model Optimization (LLMO) vs. Suchmaschinen­optimierung (SEO) – Gemeinsamkeiten, Unterschiede und der Status quo

Autor:Patrick Stolp Letzte Aktualisierung:07.03.2025 Kategorie:SEO Lesedauer:14 Minuten

Moderne Informationssysteme basieren zunehmend auf Künstlicher Intelligenz und Machine Learning. Im Zentrum stehen dabei zum einen Large Language Models (LLMs) und deren Optimierung sowie zum anderen semantische Suchmaschinen, allem voran natürlich Google, das sich durch den neuen AI Mode seit kurzem anschickt, eine Kombination aus klassischer Suchmaschine und LLM zu werden.

Nicht nur Laien, sondern auch erfahrene SEO-Veteranen haben es derzeit schwer, angesichts der Dynamik und Geschwindigkeit der Entwicklung fachlich mitzuhalten und auf dem Laufenden zu bleiben – und letztlich die eigene Arbeit anzupassen. Denn eines ist klar: Jedes Unternehmen, das Online-Marketing braucht, wird neben SEO zukünftig auch nach Large Language Model Optimization, kurz: LLMO, fragen. Wer sich jetzt als Experte positioniert und etabliert, wird einen enormen Wettbewerbsvorteil haben. Leicht wird dies aber keinesfalls sein.

Aus diesem Grunde versuche ich in diesem Artikel, ein grundsätzliches Verständnis für die zentralen technischen Grundlagen von LLMs und (semantischen) Suchmaschinen zu ermöglichen, Unterschiede zwischen beiden Informationssystemen aufzuzeigen und aktuelle Ansätze für die Optimierung auf LLM-Antworten vorzustellen.

Was sind eigentlich Large Language Models (LLMs) - und wie funktionieren LLMs?

Moderne Large Language Models basieren auf sogenannten Transformer-Modellen. Diese Modelle nutzen eine für Maschinen verständliche Textarchitektur, die es ihnen ermöglicht, Beziehungen zwischen unterschiedlichen Texteinheiten zu gewichten und zu analysieren.

Zur Verarbeitung menschlicher Sprache werden Texte in sogenannte Tokens unterteilt – dabei handelt es sich nicht zwingend um vollständige Wörter. Tokens sind die kleinsten Verarbeitungseinheiten und können beispielsweise folgende Formen annehmen:

  • Teile von Wörtern oder Lexemen (z. B. „verarbeit-“ + „-ung“)
  • Einzelne Wörter (z. B. „Haus“)
  • Satzzeichen (z. B. „?“)
  • Häufige Buchstabenkombinationen (z. B. „ung“ in der deutschen Sprache)

Diese Tokens werden in Vektoren – also Zahlenreihenfolgen – transformiert, wodurch Wörter und Textsequenzen in mathematische Repräsentationen überführt werden. Genau dieser Prozess ermöglicht es LLMs, auf der Basis statistischer Muster aus riesigen Trainingsdatensätzen (bestehend aus Wikipedia-Artikeln, Büchern usw.) Sprache nahezu authentisch zu reproduzieren. Dabei analysieren sie die gelernten Zusammenhänge und berechnen die wahrscheinlichste Fortsetzung eines Textes – ohne diesen direkt aus den Trainingsdaten zu kopieren.

Was ist der Unterschied zwischen einer semantischen Suchmaschine wie Google und einem Large Language Model wie ChatGPT?

Erst einmal sei gesagt, dass es sich bei Google um eine hybride Suchmaschine handelt, die je nach Suchanfrage teils noch auf die klassische lexikalische bzw. term-basierte Suche zurückgreift, also die Suche nach Keywords bzw. Phrasen in Dokumenten.

Größtenteils kann Google aber als semantische Suchmaschine bezeichnet werden, die fähig ist, die Bedeutung und den Kontext einer Suchanfrage zu verstehen. Googles hauseigene semantische Wissensdatenbank ist der sogenannte Knowledge Graph, in dem die Beziehungen zwischen benannten Entitäten und ihrer Typen abgebildet werden.

Die Basisstruktur des Knowledge Graphs sind Triples, die Fakten in einer Dreierstruktur abbilden, ähnlich dem grammatikalischen Prinzip von Subjekt --> Prädikat --> Objekt.

Dazu ein simples Beispiel:

Ben → ist eine → Person
Ben → lebt in → New York
Bob → lebt in → London
Bob → hat den Nachnamen → Little
Big Ben → ist ein → Wahrzeichen
Big Ben → steht in → London

Durch diese Sammlung an Fakten und Entitätsbeziehungen durch Triples wird es einer Maschine auf einmal möglich, Fragen zu beantworten, anstatt nur nach dem Vorhandensein von Termen oder Wörtern zu suchen. Beispielweise könnte eine Maschine in diesem Fall eine adäquate Antwort auf die Frage geben: Warum sollte Ben Little zum Big Ben gehen, wenn er Bob sehen möchte?

Beispiel-Quelle: https://www.linkedin.com/feed/update/­urn:li:activity:7301164277233577985/

Die semantische Suchmaschine Google ist ein sogenanntes Information-Retrieval-System, welches aus einer Fülle an existierenden und vorhandenen Informationen die beste Antwort auf eine Nutzeranfrage sucht.

Könnte man also sagen, dass Google Informationen versteht und ein Large Language Model nicht?

Die kurze Antwort: Jein. Weder Google noch LLMs verfügen über ein menschliches Verständnis. Zwischen beiden Informationssystemen lassen sich wesentliche Unterschiede vor allem in der Art und Weise beobachten, wie beide Systeme Suchanfragen interpretieren und verarbeiten.

Sowohl Google als auch LLMs setzen auf Natural Language Processing (NLP), einen Teilbereich des Machine Learnings, der es ermöglicht, Texte in maschinenlesbare Einheiten zu zerlegen. Dazu werden Sätze in Tokens aufgeteilt – die kleinsten Verarbeitungseinheiten, die anschließend in Vektoren überführt werden.

Diese Vektoren bilden die Basis, um semantische Zusammenhänge zwischen Begriffen algorithmisch zu erfassen. Bei der Tokenisierung werden nicht nur einzelne Wörter, sondern auch Satzzeichen und häufige Buchstabenkombinationen verarbeitet. Über weitere NLP-Schritte wie Part-of-Speech-Tagging, Lemmatisierung, Dependency Parsing und Named Entity Recognition werden auch grammatikalische Strukturen, Wortbeziehungen und spezifische Entitäten identifiziert.

Google nutzt diese NLP-Technologien in mehreren Bereichen, um als semantische Suchmaschine zu agieren. Die Funktionsweise basiert dabei auf einem sogenannten Search Query Processing, das die Suchanfrage umfassend interpretiert und mit internen Datenbanken abgleicht.

Folgende technische Details und Prozessschritte spielen dabei eine zentrale Rolle:

  1. Verständnis der Suchanfrage und Entitäten Beim Search Query Processing wird wie bereits erklärt die eingegebene Suchphrase tokenisiert – ähnlich wie es bei LLMs der Fall ist. Transformer-Modelle wie BERT, MUM und Rankbrain zerlegen die Anfrage in Subwords und analysieren deren semantischen Kontext. Dabei werden die Suchterme mit den in den semantischen Datenbanken erfassten Entitäten abgeglichen. Dieser Prozess ermöglicht es Google, auch Synonyme oder verfeinerte Bedeutungen zu erkennen, ohne dass die exakten Begriffe in der Suchanfrage vorkommen.
  2. Zusammenstellung relevanter Dokumente Nach der tokenisierten Analyse wird der passende Korpus an Dokumenten ermittelt. Google kombiniert hierfür den klassischen Suchindex – in dem Websites bereits beim Crawling tokenisiert und in semantische Vektorräume übersetzt wurden – mit einer eigenen semantischen Datenbank in Form des Knowledge Graphs. Es ist anzunehmen, dass zwischen diesen beiden Systemen ein dynamischer Austausch über definierte Schnittstellen erfolgt. Die Suchintention des Nutzers wird dabei analysiert und ein maßgeschneiderter Korpus relevanter Inhalte zusammengestellt.
  3. Scoring und Relevanzbewertung Eine Scoring Engine, basierend auf Algorithmen, die ihren Kern in dem Hummingbird-Algorithmus haben, bewertet die gefundenen Inhalte. Hierbei fließen neben der inhaltlichen Relevanz auch Qualitätsmerkmale ein, die unter dem Begriff E-E-A-T (Expertise, Experience, Authoritativeness, Trustworthiness) zusammengefasst werden. Google bewertet die Domain, den Publisher und den Autor, indem es semantische Datenbanken heranzieht, um beispielsweise die Expertise einer bestimmten Quelle zu bestätigen. Anschließend werden die Ergebnisse durch eine Cleaning Engine von Duplikaten bereinigt und etwaige Abstrafungen berücksichtigt.
  4. Vektorraumanalysen und Machine Learning Neben dem direkten Abgleich von Tokens kommen Vektorraumanalysen zum Einsatz, um Suchanfragen und Inhalte in einen thematischen Kontext zu überführen. Hierbei wird die Distanz zwischen Vektoren genutzt, um semantische Ähnlichkeiten zu messen – ein Verfahren, das bereits mit der Einführung von Word2Vec und Rankbrain seinen Anfang nahm. Dies ermöglicht nicht nur die Identifikation von Entitäten, sondern auch die Ermittlung komplexer Zusammenhänge, die über einfache Schlüsselwörter hinausgehen.

LLMs wie ChatGPT arbeiten dagegen rein statistisch: Sie nutzen keine vordefinierten Ontologien (=organisierte Wissensstruktur) wie Googles Knowledge Graph, sondern agieren ausschließlich auf Basis erlernter Token-Korrelationen aus ihren Trainingsdaten (außer Wissensgraphen werden als Kontext durch Retrieval Augmented Generation eingesetzt, wozu ich noch komme).

Das Ergebnis ist ein Text, der inhaltlich plausibel klingt und größtenteils vermutlich auch wahre Informationen liefert – aber eben keine Garantie auf Richtigkeit mitbringt. Es gibt sozusagen keinen Faktencheck.

Zusammenfassung:
Google und LLMs verfolgen beide das Ziel, unstrukturierte natürliche (menschliche) Sprache zu „verstehen“ – allerdings mit unterschiedlichen Ansätzen:

Google: Arbeitet als semantisches Retrieval-System, das durch eine Kombination aus tokenbasierter Analyse, semantischer Datenbank (Knowledge Graph), Vektor-Embeddings und einem ausgeklügelten Scoring-Mechanismus bestehende Dokumente extrahiert und bewertet. Dabei kommen moderne NLP-Methoden zur Interpretation, Verfeinerung und Kategorisierung von Suchanfragen zum Einsatz.

LLMs: Generieren Antworten rein auf Basis statistischer Muster aus ihren Trainingsdaten, ohne direkt auf eine fest definierte Ontologie oder Datenbank zurückzugreifen. Zwar können Ansätze wie Retrieval-Augmented Generation externe Informationen einbinden, doch bleibt der Kern – die Erzeugung plausibler Textpassagen – grundsätzlich von einem direkten Faktenabgleich getrennt.

Sind LLMs und Googles AI Overview (ehemals SGE) das Gleiche?

Googles AI Overview wird häufig im Kontext von Large Language Models benutzt, gehört ehrlicherweise aber nur bedingt in dieses Themenfeld und soll deswegen auch nur kurz in diesem Artikel behandelt werden (AI Overviews sind in Deutschland erstmals im März 2025 von Nutzern gesichtet worden). Außerdem hat auch Google ein tatsächliches hauseigenes Large Language Models namens Gemini.

AI Overviews, die ehemals den sperrigen Namen Search Generative Experience (SGE) innehatten, sind Mitte 2023 erstmals in den USA erschienen. Aufgrund des jungen Alters ist die exakte Funktionsweise zwar noch nicht im Detail bekannt, die grundlegenden Mechanismen allerdings schon.

Im Grunde sind AI Overviews auch nichts gänzlich Neues. Bereits seit langer Zeit gibt es in der organischen Google-Suche die sogenannten Featured Snippets, die in wenigen Zeichen informationelle Suchanfragen direkt in den SERPs oberhalb der blauen organischen Links und ggf. Werbanzeigen beantworten, indem passende Textpassagen einer Website ausgespielt werden.

AI Overview funktioniert ähnlich, de facto handelt es sich um KI-Featured-Snippets. AI Overviews (AIOs) generieren keine neuen Inhalte „aus dem Nichts“. Stattdessen basieren sie auf Googles Index und vorab trainierten Datenmodellen, die mit klassischen Ranking-Signalen (z. B. Autorität, Relevanz) kombiniert werden. Erste Studien wie von seoClarity konnten belegen, dass in AI Overviews mehrheitlich Textzusammenfassungen von Webites generiert werden, die zur Suchanfrage in den organischen Top-10 ranken.

Ein wesentlicher und für den Endnutzer sicherlich der wichtigere Unterschied zwischen LLMs und Googles AI Overview ist in der User Journey zu finden, wie Crystal Carter bereits herausgearbeitet hat:

Nutzerverhalten bei LLMs Nutzerverhalten bei AI Overview
Nutzer entscheiden sich aktiv dafür, ein LLM zu befragen Nutzer haben eine passive Rolle und können AI Overview nicht bewusst aktivieren – ob und wann AIOs ausgespielt werden, entscheidet Google
Nutzer können dynamisch mit LLMs interagieren, beispielsweise Verständnis- oder Folgefragen stellen und somit eine Konversation führen AI Overviews sind ein statistisches System, das keinerlei Interaktionen (bis auf Klicks auf etwaige Quellenlinks) zulässt

Update: Integration von LLMs in die semantische Suche mittels Graph RAG

Noch während ich diesen Artikel schrieb, gab es eine große Neuigkeit: Googles neuer AI Mode. Google hat mit diesem neuen AI Mode einen entscheidenden Schritt gemacht: Die klassische semantische Suche wird nun direkt mit leistungsfähigen Large Language Models verknüpft – und zwar durch den Einsatz von Graph RAG. Dabei werden strukturierte Wissensressourcen wie der Suchindex, der Shopping Graph und der Knowledge Graph zusammengeführt, um ein umfassendes, faktenbasiertes Antwortsystem zu schaffen.

Wie in diesem Artikel erläutert, waren diese Systeme bislang nur getrennt im Einsatz – der Knowledge Graph lieferte strukturierte Fakten, während der Suchindex und der Shopping Graph primär für das Abrufen relevanter Inhalte zuständig waren. Mit AI Mode erfolgt nun eine Integration, bei der diese Ressourcen als Basis für generative Antworten genutzt werden. Das bedeutet, dass die LLMs nicht mehr allein auf vortrainierten Mustern beruhen, sondern durch Graph RAG auf verifizierte, graphbasierte Informationen zugreifen können.

Google verfügte schon lange über einige der weltweit beststrukturierten Wissensressourcen. Mit der Verknüpfung dieser Datenquellen in AI Mode wird nun ein klarer Wettbewerbsvorteil erreicht, wodurch es die Modelle von OpenAI und Co. schwer haben werden.

Welche Typen von Large Language Models gibt es?

Large Language Models lassen sich grob in zwei Hauptkategorien einteilen – abhängig davon, wie sie mit Informationen umgehen und auf welcher Datenbasis sie antworten.

Diese Unterscheidung ist nicht nur technisch relevant, sondern hat direkte Auswirkungen darauf, wie nutzerorientiert, aktuell und „optimierbar“ die LLMs sind.

Statische, vortrainierte Large Language Models

Diese LLMs generieren Antworten ausschließlich auf Basis eines feststehenden vorab trainierten Datensatzes. Sie greifen nicht auf Live-Daten aus dem Internet zu, sondern arbeiten mit einem „eingefrorenen“ Wissensstand – vergleichbar mit einer Enzyklopädie, die nach dem Druckdatum nicht mehr aktualisiert wird. Dies ist beispielsweise beim alten ChatGPT-4 der Fall.

Search-Augmented (sucherweiterte) Large Language Models

Sucherweiterte LLMs kombinieren vortrainierte Daten mit Echtzeitinformationen aus Suchmaschinen: Das Basiswissen stammt aus dem Training, aktuelle Fakten werden via Web-Crawling eingeholt und verarbeitet.

Retrieval-Augmented Generation (RAG) für Large Language Models

Retrieval-Augmented Generation (RAG) ist im Grunde eine Technologie zur LLM-Optimierung, also um generierte Textinhalte von LLMs präziser und aktueller zu gestalten – demnach die typischen Schwächen von Large Language Models besser kontrollieren zu können.

Im Gegensatz zu den erwähnten statischen oder sucherweiterten LLMs kombiniert RAG das vortrainierte Wissen eines LLMs mit externen Datenquellen wie Datenbanken, Dokumenten oder erneut Live-Webinhalten.

Das Ziel: sogenannte Halluzinationen zu reduzieren und spezifische Antworten innerhalb eines konkreten Themenkomplexes zu ermöglichen, ohne das Modell gänzlich neu trainieren zu müssen.

Wer sich noch an den Anfang dieses Artikels und die Funktionsweise semantischer Suchmaschinen wie Google erinnert, wird womöglich erkannt haben, dass Large Language Models, die Retrieval-Augmented Generation verwenden, faktisch Suchmaschinensysteme mit LLM-Systemen kombinieren, und zwar in den folgenden drei grundsätzlichen Schritten:

  • Indizierung: Externe Dokumente werden in Textabschnitte zerlegt („Chunks“), in Vektoren umgewandelt und in einer Datenbank gespeichert
  • Retrieval: Bei einer Nutzeranfrage sucht das System nach den semantisch passendsten Textabschnitten (z. B. ebenfalls wieder über Cosine Similarity)
  • Generierung: Die relevanten Informationen werden als Kontext in den Prompt integriert – das Large Language Model generiert daraufhin eine domänenspezifische kontextuelle und gänzlich einzigartige Antwort

Kann man Ergebnisse von Large Language Models überhaupt beeinflussen?

Wie schon bei der klassischen Suchmaschinenoptimierung war und bin ich noch immer der Meinung, dass ein wenigstens grundsätzliches - technisches - Verständnis davon, wie das System funktioniert, auf das man optimieren möchte, für den Erfolg umgesetzter Maßnahmen eine entscheidende Rolle spielt.

Diese Meinung ändert sich nicht hinsichtlich der Optimierung auf Large Language Models – und deswegen auch der etwas ausführlichere Einstieg in diesen Artikel bis hierhin.

Bevor wir ich aber die Frage beantworte, WIE man für Large Language Models optimiert, muss die Frage gestellt werden, WARUM man das überhaupt (jetzt schon) tun sollte.

Dabei ist es nicht ganz unwesentlich zu berücksichtigen, welche Unterschiede es beim „Performance“-Tracking bei der Large Language Model Optimization gibt, gerade im Vergleich zur klassischen SEO. Denn, so viel Offensichtliches vorweggenommen, Keyword-Ranking-Tracking wird es nicht mehr geben.

Lohnt sich Large Language Model Optimization bereits jetzt – oder genügt weiterhin Google-SEO? (eine zahlenbasierte Einschätzung)

Die Frage, ob sich die Optimierung für Large Language Models (LLMO) bereits heute lohnt, lässt sich nicht pauschal beantworten. Sie hängt stark von der Zielgruppe, der Branche und der langfristigen Marketing-Strategie und ihren konkreten Zielen ab.

Doch die aktuellen Daten zeigen: Für bestimmte Nutzergruppen und Anwendungsfälle ist LLMO schon jetzt ein vielversprechender Online-Marketing-Instrument.

Nutzerakzeptanz und Demografie

LLMs verzeichnen insgesamt ein rasantes Wachstum, allem voran der First-Mover. ChatGPT allein hat über 400 Millionen wöchentliche Nutzer (Stand Januar 2025), wobei die Mehrheit der Anwender jung und männlich ist: 70 Prozent sind Männer, und mehr als die Hälfte ist zwischen 18 und 34 Jahre alt. Regionale Schwerpunkte liegen in den USA (25 Prozent der Nutzer), Indien (12 Prozent), Brasilien, UK und Deutschland.

Besonders auffällig ist das Generationen-Gefälle: Während nur 42 Prozent der sogenannten Baby Boomer LLMs nutzen, sind es bei der Generation Z bereits 82 Prozent. Noch deutlicher wird der Unterschied bei der Nutzungshäufigkeit: Knapp 47 Prozent der 18- bis 24-Jährigen verwenden ChatGPT häufiger als Google (!), während es in dieser Altersgruppe nur 24,7 Prozent Google-Nutzer gibt. Wer also junge, technikaffine Zielgruppen anspricht, sollte LLMO bereits jetzt ernst nehmen.

Traffic-Potential

Aktuell machen LLMs nur einen kleinen Teil des globalen Website-Traffics aus. Gerade einmal 0,17 Prozent des gesamten Traffics entstammen LLM-Quellen. Allerdings gibt es hier große Unterschiede: Während der Durchschnitt bei 0,17 Prozent liegt, erreichen Top-Websites bis zu sechs Prozent LLM-Traffic-Anteil. Interessanterweise profitieren kleinere Domains überproportional von LLM-Verweisen, was LLMO besonders für Nischenmärkte wie B2B attraktiv macht.

Das Wachstumspotential ist ebenfalls beachtlich: ChatGPT verweist mittlerweile täglich auf über 30.000 Domains – im Juli 2024 waren es noch weniger als 10.000 Domains.

Engagement

Ein weiteres Argument für LLMO ist die hohe Qualität des Traffics. Nutzer, die über LLMs auf Websites gelangen, sind deutlich engagierter als solche, die über Google kommen. Die durchschnittliche Session-Dauer liegt bei 10,4 Minuten für LLM-Verweise, verglichen mit 8,1 Minuten bei Google. Auch die Anzahl der besuchten Seiten ist höher: 12,4 Seiten pro Session bei LLM-Traffic gegenüber 11,8 Seiten bei Google.

Hinzu kommt, dass 22 Prozent des LLM-Traffics direkt auf Homepages landet – im Vergleich zu nur zehn Prozent bei Google. Dies deutet darauf hin, dass LLMs Nutzer besser auf Markeninteraktionen vorbereiten und eine höhere Markenaffinität schaffen.

Einfluss auf Kaufentscheidungen

LLMs spielen auch im Customer Journey eine immer größere Rolle. 25 Prozent der Briten beispielsweise nutzen Large Language Models beim Online-Shopping. In den USA geben sieben von zehn Nutzern an, dass LLMs ihr Einkaufserlebnis verbessern – insbesondere bei der Suche nach Schnäppchen (20 Prozent) und Produktvergleichen (19 Prozent).

Besonders interessant ist der Effekt auf Nischenmarken: Eine Studie von Chang et al. zeigt, dass Produkte mit geringer Bekanntheit nach einer LLM-Empfehlung deutlich mehr Vertrauen genießen. Dies macht LLMO zu einem wertvollen Tool für Marken, die noch nicht im Mainstream angekommen sind.

Das Problem des Trackings bei LLMO

Wie bereits angedeutet ist Large Language Model Optimization zum Scheitern verurteilt, wenn zum einen unklar bleibt, mit welchem genauen Ziel eigentlich optimiert werden soll, und zum anderen die etwaigen Ergebnisse gar nicht getrackt werden können. Ohne gesicherte Informationen, ohne Daten kann man sich die Arbeit sparen.

Das ist in der klassischen Suchmaschinenoptimierung auch nicht anders. Tatsächlich sind alte SEO-Tracking-Methoden wie das Tracking von Keyword-Rankings mittlerweile nicht mehr wirklich effektiv. Aus den folgenden Gründen:

  • Suchmaschinen passen Ergebnisse zunehmend an individuelle Nutzer an – basierend auf Standort, Suchverlauf, Gerät und sogar dem sozialen Kontext. Beispiel: Eine Suche nach „beste Wanderrouten“ liefert einem Nutzer in den Alpen andere Ergebnisse als einem Nutzer in Norddeutschland.
  • Immer häufiger beantworten Suchmaschinen Anfragen direkt auf der Suchergebnisseite – via Featured Snippets, AI Overviews oder Knowledge Panels.
  • Traditionelles Rank-Tracking misst keine Sentiments, Markenassoziationen oder kontextuellen Erwähnungen.
  • Moderne Suchalgorithmen analysieren, wie eingangs erklärt, nicht mehr nur Keywords, sondern „verstehen” Themen, Absichten und Entitäten. So kann eine URL für zig Keywords und insbesondere komplexe Suchanfragen, die sich aus mehreren Begriffen zusammensetzen, ranken, ohne dass auch nur ein SEO-Tool dies erfasst.
    Dazu zwei Zahlen: Laut aktuellen Daten verarbeitet Google täglich etwa 8,5 Milliarden Suchanfragen. Davon sind ungefähr 15 % völlig neu, das heißt, sie wurden in dieser Form noch nie zuvor gestellt. Das entspricht etwa 1,275 Milliarden neuen Suchanfragen pro Tag.

Zudem entfallen Schätzungen zufolge etwa 70 % aller Suchanfragen auf Longtail-Keywords. Das bedeutet, dass täglich rund 5,95 Milliarden Suchanfragen Longtail-Charakter haben.

Für die Ergebnisse von Large Language Models kommen weitere Probleme hinzu. Möchte man als kommerzieller Anbieter, als Unternehmen oder Marke direkt in der Antwort genannt oder als Quelle referenziert werden, hängt es von unterschiedlichen Faktoren ab, wie hoch die Wahrscheinlichkeit ist, aufgeführt zu werden – oder ob eine Nennung überhaupt möglich ist:

  • Bei statischen, vortrainierten Large Language Models hängt es von den zugrundeliegenden Trainingsdaten ab, welche Marken in bestimmten Kontexten häufig auftreten.
  • Bei sucherweiterten LLMs wiederum bestimmt anscheinend die verwendete Suchmaschine und die dortige Position einer Domain bzw. URL für bestimmte Suchanfragen die Wahrscheinlichkeit einer Nennung bzw. Referenzierung.

Um all diesen Problemen zu begegnen, braucht es innovative Denkansätze und neue Methoden für Performance-Tracking. Den bislang innovativsten Ansatz fand ich im Artikel „Beyond Rank Tracking: Analyzing Brand Perceptions Through Language Model Association Networks“. Dort wird ein innovativer Ansatz vorgestellt, bei dem Large Language Models nicht nur als reine Antwortgeneratoren, sondern als Werkzeuge zur Analyse von Markenassoziationen genutzt werden.

Durch gezielte Abfragen an LLMs lassen sich sogenannte Brand Association Networks erstellen, die aufzeigen, welche Begriffe und Konzepte mit einer Marke in Verbindung stehen. Anstatt sich lediglich auf die Position in den SERPs zu stützen, wird so ein umfassenderes Bild der Markenwahrnehmung erzeugt.

Dabei werden die Beziehungen zwischen der Marke und verschiedenen Entitäten – seien es Wettbewerber, Produkte oder thematische Konzepte – systematisch erfasst. Diese Methodik ermöglicht es, subtile Assoziationen und auch Veränderungen im Zeitverlauf zu erkennen. Die gewonnenen Daten liefern nicht nur quantitative Metriken, wie die Häufigkeit bestimmter Assoziationen, sondern auch qualitative Einsichten in den semantischen Kontext, in dem eine Marke wahrgenommen wird.

Wie funktioniert Large Language Model Optimization in der Praxis?

Wer viel auf LinkedIn unterwegs ist, wird in bestimmten Blasen überflutet von den neusten angeblich bahnbrechenden Erkenntnissen zu LLMO. Fakt ist aber, dass es eindeutig zu früh ist, um valide Erkenntnisse über funktionierende Methoden zu besitzen, gerade wenn diese von Laien formuliert werden – und Laie ist derzeit jeder, der kein Data-Science-Experte ist.

Aus datentechnischer Sicht sind die Trainingsdaten großer, kommerzieller LLMs und deren interne Gewichtungen und Filtermechanismen nicht öffentlich zugänglich. Das bedeutet, um eine gewünschte Meinung oder ein bestimmtes Sentiment in den generativen Outputs zu verankern, müsste mehr als 50 % der Trainingsdaten genau diese Information widerspiegeln.

Gut zu wissen:

Im Kontext von Natural Language Processing (NLP) bezeichnet „Sentiment“ die emotionale Färbung oder subjektive Haltung, die in einem Text ausgedrückt wird. Technisch gesehen geht es dabei um die Klassifikation von Textinhalten in Kategorien wie positiv, negativ oder neutral – oft auch in feineren Abstufungen, beispielsweise mit zusätzlichen Kategorien wie „sehr positiv“ oder „leicht negativ“.

Die Angabe „mehr als 50 %“ basiert auf der statistischen Logik, dass LLMs Wahrscheinlichkeitsverteilungen über Wortfolgen aus den Trainingsdaten ableiten. Wenn über die Hälfte der Beispiele ein bestimmtes Sentiment zeigen, wird dieses als dominantes Signal im Modell verankert und häufiger generiert – ein Prinzip, das dem Majority-Rule-Prinzip entspricht. Kurz gesagt: Um eine gewünschte Meinung in den Outputs zu verankern, muss diese in den Trainingsdaten mehrheitlich vertreten sein.

Experten wie Kai Spriestersbach betonen, dass selbst wenn theoretisch ein Einfluss möglich wäre, die notwendigen Maßnahmen im Bereich der Unternehmenskommunikation und PR – also das Fluten des Internets mit qualitativ hochwertigen Beiträgen, die das gewünschte Sentiment transportieren – nur dann Wirkung zeigen, wenn sie gleichzeitig auch die öffentliche Meinung beeinflussen.

Barbara Lampl verweist darauf, dass ein synchronisierter Einsatz von Content, PR und gezielten Erwähnungen zwar denkbar ist, jedoch angesichts der Komplexität und der abnehmenden Erträge bei der Umsetzung wirtschaftlich kaum zu rechtfertigen ist.

Schlechte Nachrichten also? Womöglich ja, vielleicht aber auch nicht. Es bleibt unter dem Strich festzuhalten, dass die Kernmechanismen zwischen LLMs und klassischen Informationsabrufsystemen im Grunde gleichbleiben – der einzige Unterschied besteht in der Schnittstelle und im Optimierungsperspektivwechsel.

Praktisch bedeutet dies, dass Unternehmen – sofern sie auf LLM-Outputs optimieren möchten – vor allem darauf setzen sollten, ihre eigene digitale Autorität auszubauen. Dies umfasst den strategischen Aufbau von Medienpräsenz via E-E-A-T (Expertise, Experience, Authority, Trustworthiness), das Erzielen von qualifizierten Erwähnungen in vertrauenswürdigen Quellen und das Schaffen von Co-Occurrences, also das häufige gemeinsame Auftreten der eigenen Marke mit relevanten Entitäten und Attributen in hochwertigen Inhalten – und all dies ist letztlich nichts anderes als moderne Suchmaschinenoptimierung.

Sie möchten auch von diesem Wissen profitieren? Jetzt Termin vereinbaren!

Sie wünschen Sie eine individuelle Einschätzung oder ein konkretes, verbindliches Angebot. Dann buchen Sie sich jetzt Ihren kostenloses Beratungstermin mit uns.

Jetzt kostenloses Beratungsgespräch vereinbaren Klicken Sie hier für den nächsten Schritt zum Erfolg