Wie werden die Rankings von Suchergebnissen erzielt? Es gibt eine große Anzahl von Parametern, die google in Betracht zieht. Zunächst ist der Content Umfang der Website wichtig. Ob die Seite für andere User auch interessant ist, wird dann unter anderem an der Anzahl der Backlinks sowie der zugehörigen Qualität der Linkquellen bewertet. Darüber hinaus gibt es natürlich auch noch eine große weitere Anzahl von Punkten, die google im Ranking berücksichtigt. Bisher hat google jedoch nicht den Inhalt auf die Korrektheit der Informationen berücksichtigt. Das soll sich bald ändern.

Aus diesem Grunde befassen sich Google-Forscher mit Techniken, um die Vertrauenswürdigkeit von Seiten automatisch abschätzen zu lassen. Anhand des „Vertrauensindex“ sollen sich dann die Rankings abbilden lassen. Funktionieren soll das ganze mit Hilfe einer Fakten-Datenbank. Für diesen Test wurde eine Datenbank geschaffen, die 2,8 Milliarden Fakten enthalten soll. Mit dem erarbeiteten Algorithmen wurde versucht der Wahrheitsgehalt von 119 Millionen Webseiten zu erkennen. Hierbei wurden beispielsweise Fakten wie die Nationalität des aktuellen US-Präsidenten Barack Obama geprüft. Dieses Ergebnis – kurz „Knowledge-Based Trust“ (KBT) genannt – wurde mit dem traditionellen Pagerank-Algorithmus der beiden Google-Gründer Sergey Brin und Larry Page verglichen.

Der Vorteil einer solchen Bewertung liegt ganz klar auf der Hand: In das Ranking fließen nicht nur die externen Signale, also Backlinks ein, sondern die Webseite selbst wird bewertet. Bei dem Vergleich mit dem traditionellen Pagerank viel auf, dass vertrauenswürdige Seiten sehr oft aber nicht immer über gute oder viele Backlinks verfügen. Der Resultat aus diesem Test – bei dem 2000 zufällige Seiten vergleichen wurden – ist, dass mit Hilfe des neuen KBT Algorithmus vertrauenswürdige Quellen aufgespürt werden können, die weniger bekannt sind und einen geringen Pagerank aufweisen. Weiterhin wurden Seiten die einen Top-Pagerank haben und recht populär sind durch den KBT schlechter bewertet.

Für SEOs bleibt es spannend ob und wann KBT eingeführt wird. Jedoch kann man davon ausgehen, dass zu dem Zeitpunkt einer Einführung, die Suchergebnisse starken Schwankungen ausgesetzt sein wird. Seiten die wenig „korrekte“ Fakten liefern, dafür aber viele Backlinks aufweisen und sich dadurch gute Platzierungen gesichert haben, könnten die Verlierer durch diesen Algorithmus sein. Andere – weniger bekannte Seiten mit vielen korrekten Fakten könnten im Umkehrschluss sehr gute Platzierungen erhalten.

Wie man es auch dreht und wendet – google arbeitet immer weiter an der Qualität der Suchergebisse und für Webseiten und Onlineshopbetreiber bedeutet dieses auch, noch mehr auf qualitativen Content wert zu legen. Auf der anderen Seite können natürlich durch solche Algorithmen auch „kritische“ Seiten abgestraft werden, da die Fakten bei solchen Angeboten oft über eine lange Zeit als fragwürdig eingestuft werden.