Google-Qualitätsbewertung neuer Websites: Methodik & abgeleitete SEO-Tipps

Autor:Patrick Stolp Letzte Aktualisierung:16.10.2024 Kategorie:Suchmaschinenoptimierung Lesedauer:6 Minuten

Die Qualität einer Website spielt in der Suchmaschinenoptimierung (SEO) bekanntlich eine zentrale Rolle. Auf den Website-Content bezogene Qualität zu messen, ist allerdings gar nicht so einfach, schon gar nicht für eine Suchmaschine wie Google.

Eines der Qualitätskonzepte seitens Google ist das E-E-A-T-System (Experience, Expertise, Authoritativeness, Trust), mit dem Google Offpage- und Onpage-Faktoren betrachtet und bewertet. Doch eine E-E-A-T-Bewertung – egal, ob auf Seitenebene, Publisher-Ebene oder Autorenebene – braucht größtenteils historische Daten, darunter könnten sich beispielsweise summierte Nutzerinteraktionen mit einem Content-Piece befinden oder die Publikationsfrequenz eines spezifischen Autors.

Aus diesem Grunde fällt der Suchmaschine die Qualitätsbewertung gänzlich neuer Websites oder auch Domains schwer. Ein bereits 2013 eingereichtes Google-Patent mit dem Namen „Predicting site quality“ gibt Hinweise darauf, wie Google die Qualität einer neuen Website womöglich zu Anfang bewertet: nämlich durch die Generierung eines Phrasenmodells auf Basis bereits bewerteter Websites. Für „Neu-Publisher“ ergeben sich daraus sogar einige SEO-Implikationen, um mit der neuen Website eine positive anfängliche Qualitätsbewertung und bessere Rankings zu erzielen.

Google-Patent zur Qualitätsbewertung neuer Websites

Wie funktioniert die Google-Methode zur Vorhersage der Qualität neuer Websites?

Im Google-Patent wird ausführlich die Methodik zur Qualitätsvorhersage für neue Websites beschrieben.

Die zentrale und erste Aufgabe ist die Entwicklung eines Phrasenmodells basierend auf bereits bekannten und bewerteten Websites im Google-Index. Um das Phrasenmodell zu generieren, wird also eine große Menge an Websites gesammelt, deren Qualität bereits bewertet wurde.

Diese Websites dienen als Trainingsdaten für das Modell. Anschließend wird der Textinhalt jeder Website analysiert, um relevante Phrasen zu identifizieren. Hierbei kommen n-grams zum Einsatz.

Was sind n-grams?

N-grams sind Sequenzen von n aufeinanderfolgenden Wörtern oder Tokens in einem Text. Sie werden in der Sprachverarbeitung und Textanalyse verwendet, um sprachliche Muster und Zusammenhänge zu identifizieren.

Das Patent erwähnt konkret die Verwendung von n+k-grams, wobei n die Basisordnung der n-grams ist und k eine variable Anzahl von Übersprungswörtern, sogenannten skip words darstellt.

Da nicht alle extrahierten Phrasen gleich relevant sind, beschreibt das Patent Methoden zur Filterung von Kandidatenphrasen. Jede Kandidatenphrase wird als Suchanfrage an eine Suchmaschine gesendet, und die Suchergebnisse werden klassifiziert, um zu bestimmen, ob sie zu einem spezifischen Thema gehören.

Phrasen, die zu viele themenfremde Ergebnisse liefern, werden eliminiert. Für jede verbleibende Phrase wird dann die Häufigkeit ihres Auftretens auf den analysierten Websites berechnet, sowohl für einzelne Websites als auch über die gesamte Sammlung von Websites hinweg.

Im nächsten Schritt wird die Häufigkeit jeder Phrase mit den bekannten Qualitätsbewertungen der Websites in Beziehung gesetzt. Dabei wird ermittelt, welche Phrasen häufiger auf hochwertigen Websites vorkommen und welche eher auf minderwertigen.

Basierend auf diesen Korrelationen wird schließlich ein Modell erstellt, das Phrasen und ihre Häufigkeiten mit durchschnittlichen Qualitätsbewertungen verknüpft. Dieses Modell berücksichtigt auch die Dokumentlänge und passt die Gewichtung der Phrasen entsprechend an, um eine möglichst genaue Vorhersage der Website-Qualität zu ermöglichen.

Ablauf zur Erstellung des Phrasenmodells

Ein vereinfachtes Praxisbeispiel für die Methodik der Qualitätsvorhersage:

  1. Die Phrase „ausführliche Produktbeschreibung“ kommt in hochqualitativen Online-Shops häufig vor und erhält einen durchschnittlichen Qualitätsscore von 8/10.
  2. Die Phrase „klicken Sie hier, um zu gewinnen“ kommt häufig auf eher minderwertigen Online-Shops vor und ist mit einem durchschnittlichen Score von 2/10 bewertet.
  3. Nun wird ein Online-Shop unter der neuen Domain neuershop.de publiziert und in den Google-Index aufgenommen.
  4. Die Suchmaschine analysiert den Inhalt von neuershop.de.
  5. Google stellt fest, dass „ausführliche Produktbeschreibungen“ häufig auf neuershop.de vorkommt, hingegen „klicken Sie hier, um zu gewinnen“ gar nicht vorhanden ist.
  6. Basierend auf einem Vergleich mit dem Phrasenmodell berechnet die Suchmaschine einen vorläufigen Qualitätsscore für neuershop.de, beispielsweise 7,5/10.
  7. Dieser vorhergesagte Score wird nun verwendet, um die vermeintliche Qualität von neuershop.de zu bewerten bzw. vorherzusagen, wodurch ebenfalls das Einstiegsranking – in diesem Beispiel positiv - beeinflusst wird, obwohl der Shop neu ist und noch keine aussagekräftigen Nutzerdaten vorliegen.
Prozess für  Google-Qualitätsvorhersage neuer Websites

Welches sind die relevanten Faktoren zur Qualitätsbewertung und anfänglichen Rankingeinstufung?

Zusammengefasst können also folgende Faktoren identifiziert werden, die bei der Qualitätsvorhersage und Rankingersteinstufung eine entscheidende, weil beeinflussende Rolle spielen:

  1. Phrasenanalyse: die Häufigkeit und Art der verwendeten Phrasen auf einer Website
  2. n-gram-Modelle: n+k-grams zur nuancierten Analyse von Wortsequenzen und Kontexten
  3. Thematische Relevanz: Prüfung der thematischen Zugehörigkeit einer Phrase zu thematischen Kontexten
  4. Dokumentlänge: Berücksichtigung der Länge eines Dokuments und Anpassung der relativen Gewichtung der Phrasen
  5. Korrelation mit bekannten Qualitätsbewertungen: Positivere Bewertung häufiger auf gut bewerteten Websites auftretender Phrasen
  6. Gesamtheitliche Website-Analyse: aggregierte Qualitätsbewertung der relativen Phrasenhäufigkeit für die gesamte Website

Wichtig zu wissen: Grundlage der Qualitätsvorhersage ist die Relation zu bereits vorhandenen Basis-Qualitätsbewertungen bekannter Websites

Basis-Qualitätsbewertungen spielen eine entscheidende Rolle bei der Entwicklung des Phrasenmodells. Basis-Qualitätsbewertungen stammen von einer Sammlung von Websites, die bereits evaluiert wurden. Diese Websites dienen als Referenzpunkt für die Qualitätsbeurteilung. Sie bilden sozusagen die Trainingsdaten für das Vorhersage-Modell.

Die Ermittlung der Basis-Qualitätsbewertungen erfolgt typischerweise durch einen Backend-Prozess, der zeit- oder rechenintensiv sein kann. Dieser Prozess bewertet vermutlich verschiedene Aspekte des Website-Contents, wie Relevanz und Nutzerinteraktionen, um eine Qualitätsbewertung zu berechnen. Das Patent geht nicht ins Detail, wie genau dieser Prozess aussieht, aber es ist anzunehmen, dass er komplexe Algorithmen und möglicherweise auch manuelle Überprüfungen umfasst.

Welche wirksamen SEO-Maßnahmen lassen sich aus dem Patent zur Google-Qualitätsvorhersage neuer Websites ableiten?

Vorab sei gesagt, dass die tatsächliche Verwendung des beschriebenen Patents „Predicting site quality“ seitens Google nicht bestätigt, aber zumindest wahrscheinlich ist. Wie grundsätzlich gilt, muss auch in diesem Fall individuell getestet werden.

Folgende SEO-Maßnahmen für gänzlich neue Websites sind aus dem Patent abzuleiten:

  1. Phrasennutzung in richtiger Länge: Das beschriebene Modell berücksichtigt Phrasen von zwei bis maximal fünf Wörter, weswegen es sinnvoll erscheint, Phrasen in genannter Länge auf autoritativen Wettbewerber-Websites zu analysieren und auf der eigenen Website zu verwenden.

    Eine n-gram-Analyse lässt sich beispielsweise mit dem Tool Screaming Frog SEO Spider umsetzen. Das geht so:
    1. Öffnen Sie Screaming Frog und aktivieren Sie die Option, HTML zu speichern. Gehen Sie dazu auf Konfiguration > Spider > Extraktion. Stellen Sie sicher, dass sowohl "HTML speichern" als auch "Gerendertes HTML speichern" aktiviert sind.
    2. Starten Sie den Crawl Ihrer Website und lassen Sie ihn vollständig durchlaufen.
    3. Sobald der Crawl abgeschlossen ist, wählen Sie eine URL aus. Unten finden Sie den Tab „n-grams“. Klicken Sie darauf, um die n-gram-Analyse einzusehen.
    4. In diesem Bericht können Sie die n-grams sehen, die Screaming Frog gefunden hat. Sie erhalten Daten wie die Anzahl der Vorkommen im Fließtext und den prozentualen Anteil am gesamten Dokument.
    5. Standardmäßig ist das Dropdown „1-gram“ ausgewählt. Ich empfehle jedoch, „2-gram“ oder „3-gram“ auszuwählen, um einen besseren Überblick über die verwendeten Keywords zu erhalten.
  2. Domainübergreifende Phrasenkonsistenz sicherstellen: Phrasen sollten nicht nur auf URL- oder Domain-Ebene, sondern domainübergreifend analysiert werden. Auf diese Weise lassen sich branchenübliche bzw. fachliche Ausdrücke und Phrasen identifizieren, die es zu verwenden gilt.
  3. Phrasenfrequenz managen: Das Patent legt großen Wert auf die relative Häufigkeit von Phrasen auf einer Website als Indikator für Qualität. Dabei ist es wichtig, ein Gleichgewicht zu finden. Übermäßiges Phrasen- oder Keyword-Stuffing muss vermieden werden. Das Modell ist darauf ausgelegt, natürliche Sprachmuster zu erkennen. Zu häufige Wiederholungen dürften als unnatürlich erkannt werden und sich negativ auf die Qualitätsbewertung auswirken.
  4. Kontextuelle Phraseneinbettung: Das Modell betrachtet wie erwähnt die Häufigkeiten von Phrasen über die gesamte Website hinweg. Es ist daher auf eine konsistente, aber nicht übermäßige Verwendung wichtiger Phrasen auf allen relevanten Seiten zu achten, wobei der kontextuelle Schwerpunkt auf einer Seite zu berücksichtigen ist, weil das Patent auch den Umgebungstext integrierter Phrasen betrachtet.
Sie möchten auch von diesem Wissen profitieren? Jetzt Termin vereinbaren!

Sie wünschen Sie eine individuelle Einschätzung oder ein konkretes, verbindliches Angebot. Dann buchen Sie sich jetzt Ihren kostenloses Beratungstermin mit uns.

Jetzt kostenloses Beratungsgespräch vereinbaren Klicken Sie hier für den nächsten Schritt zum Erfolg