Google Search Quality Prozess: Matt Cutts im Interview

Am 4. Oktober ist in der Business Week ein sehr interessantes und ausführliches Interview vom Google Search Quality und Webspam Team Hauptverantwortlichen Matt Cutts erschienen. Aus diesem Grund haben wir es ins Deutsche übersetzt. Jonas Weber ist es ja vertraglich untersagt, über solche Details aus dem Search Quality Bereich zu schreiben.

Matt Cutts und sein Team bei Google sind dafür verantwortlich Webspam, Seiten überfüllt mit Viagra Anzeigen oder auch Malware so gut wie möglich aus den angezeigten Suchergebnissen fernzuhalten. Mit seiner 10-jährigen Zugehörigkeit zum Unternehmen ist er bereits ein Veteran in dieser Online Unterwelt, begonnen hat er seine Karriere mit einer der ersten Versionen von Google’s Family Filter, der so genannten SafeSearch.

Ein weiterer Job von Cutts` drängt ihn fast genau so stark ins Rampenlicht wie den CEO von Google, Eric Schmidt und die Mitgründer Sergey Brin und Larry Page: Im Wesentlichen ist er Google’s Vertreter nach außen für alle Webmaster, also für diejenigen, die Websites betreiben.

In einem kürzlich erschienenen Interview vermittelte Cutts tiefe Einblicke in die Vorgehensweisen, nicht nur wie Google Webspam einschränken möchte sondern auch das Vorgehen des gesamten Quality Search Prozesses.

Das Interview mit Matt Cutts führte Rob Hof von der Business Week:

Frage: Können Sie uns weitestgehend den Prozess beschreiben, wie Google die Qualität einer Suche gewährleistet, insbesondere was sich dabei hinter den Kulissen abspielt?

Antwort: Wir versuchen eine gute Balance zwischen relativ analytischem Vorgehen und zufälligen Entdeckungen, wie beispielsweise eine Mitteilung von einem Nutzer, der sich über bestimmte Suchresultate beschwert oder einem Techniker, der bei seiner Suche auf ein Problem gestoßen ist, zu halten. Wenn beispielsweise ein Nutzer 15 Suchanfragen stellt und dabei nie auf ein Suchergebnis klickt, letztendlich dann die Suche verlässt, dann wird nachgeforscht, ob eventuell nur unbefriedigende Ergebnisse angezeigt wurden. Vielleicht hat der Nutzer nach einem Bild gesucht und zu keiner Zeit wurde ein Bild angezeigt.

Es gibt viele verschieden Wege, wie wir all diese Daten zur Identifizierung eines bestimmten Problems ermitteln. Sobald ein Problem identifiziert wurde, beginnt das Ganze Spaß zu machen, weil man dann anfängt nachzudenken. Wenn wir Glück haben erhalten wir viel Feedback von der Außenwelt. Der Großteil unserer Arbeit ist jedoch sehr analytisch. Beispielsweise schauen wir uns häufig schlechte Sitzungen an, das sind mehrfach wiederholte Suchanfragen, ohne dass jemand ein Suchergebnis angeklickt hat.

Frage: Haben Sie Probleme solche Sitzungen zu verfolgen?

Antwort: Also, über die Zeit hinweg haben wir mehrere Auswertungsverfahren entwickelt. Für verschiedene Suchanfragen haben wir Zusammenstellungen erstellt die angeschaut werden, wenn nach einer bestimmten Sache gesucht wird und wo ein bestimmtes Ergebnis erwartet wird. Wenn dieses Ergebnis nicht ausgeliefert wird, dann sollte eventuell ein wenig Fehlersuche betrieben werden: Ist die Website offline gegangen, wurde sie gehackt, oder wurden Veränderungen vorgenommen, die die Website zusammenbrechen ließen. Ein Großteil der Arbeit besteht also darin herauszufinden, dass etwas nicht mehr geregelt läuft, was vorher tadellos funktionierte.

Zudem gibt es für unsere Techniker mehrere Möglichkeiten sich zu beschweren. Wir haben innerhalb von Google eine Quality Mailing Liste und bei 20.000 Google Mitarbeitern gibt es immer viel Feedback.

Eine kleine Anekdote: Jedes Mal wenn ich auf eine Kunstausstellung gehe und die Gänge entlang schlendere, schaue ich mir die beschmutzen Glasscheiben mit den Gemälden an. Ich schreibe mir dann einfach alle angegebenen Websites auf, während ich da so entlang gehe. Werden die „Taber Studios“ auch mit dem Suchbegriff Taber Studios gefunden? Ich habe immer ein kleines Notebook bei mir und schaue dann, ob die Seite, wenn ich sie als Suchanfrage eingebe auch bei Google erscheint. Meine Frau ist schon ein wenig genervt, wenn wir beispielsweise in den Urlaub fahren, beim „Hearst Castle“ (einem Schloss in San Simeon, zwischen San Francisco und Los Angeles – Anm. d. Übersetzers) anhalten und ich in der Broschüre der Touristeninformation eine Liste von Websites vorfinde, freue ich mich riesig! Ich gebe dann die Namen der Unternehmen in die Suchmaske von Google ein und schaue ob ich deren URL’s erhalte. So kommt alles Mögliche anekdotenhaft.

Frage: Wenn Sie dann diesen Anhaltspunkt haben, was passiert dann?

Antwort: Wir fragen uns dann, wenn es tatsächlich eine Adresse auf dieser Seite gibt, warum wir diese Seite nicht anzeigen konnten oder eine Karte zeigen konnten? Neue oder andere Signale zu finden, um diese Seite anzeigen zu lassen, kann sehr schwierig sein. Manchmal müssen wir unser existierendes System einfach ein wenig optimieren, wenn beispielsweise die Buchstaben des Unternehmens sehr eng zusammen geschrieben sind, dann muss man ihm ein wenig mehr Gewicht verleihen.

Wir versuchen vieles, um Suchanfragen besser zu verstehen. Manche Nutzer schreiben die Suchanfragen falsch, aus diesem Grund versuchen wir ein sehr gutes Rechtschreibüberprüfungssystem zu etablieren. Andere benutzen Synonyme, beispielsweise „automobile“ anstelle von „cars“, auch wenn der Name des Unternehmens „Cars R Us“ ist. Wir verstehen die Suchanfragen also auch als Vorschlag.
In der Vergangenheit haben wir die perfekte Übereinstimmung gefordert, mittlerweile sind wir aber wesentlich besser geworden was die Schreibweise, die Wortbildungslehre, Synonyme und eine Rückführung auf einen Wortstamm betrifft. So schreibt z.B. jemand „Laufschuh“, meint aber „Läufer“ oder „laufen“.

Frage: Wie genau implementieren Sie Algorithmen oder Änderungen in diesen Algorithmen?

Antwort: Sie müssen sich die Suchqualität ähnlich vorstellen wie ein Auto. Wenn Sie jemanden fragen, ob ein Auto eine Maschine ist, wird er Ihnen antworten: Natürlich ist ein Auto eine Maschine. Genau genommen besteht diese Maschine aus sehr vielen Einzelkomponenten. Es gibt den Motor, das Getriebe, jede dieser Einzelkomponenten ist auch eine Maschine.

Bei Google ist der Algorithmus ein automatisiertes System welches eine Anfrage annimmt und diese an das nächste Datencenter weiterleitet. Diese wird an hunderte von Maschinen verschickt und diese Maschinen versuchen die besten Ergebnisse anzuzeigen, und von den hunderten besten Ergebnissen all dieser Maschinen werden wiederum die 10 besten Ergebnisse ermittelt. Errechnet werden die idealen Ausschnitte dieser 10 besten Ergebnisse, Anzeigen oder ähnliches werden dem Ergebnis hinzugefügt und dieses Gesamtergebnis wird wiederum an den Nutzer zurückgeschickt. Dieser gesamte Prozess kann als Algorithmus bezeichnet werden.

In der Praxis hat man in der Regel eine Mischung mehrere verschiedener kleiner Algorithmen. In meiner Gruppe gibt es beispielsweise einen Algorithmus oder richtungsweisende Elemente die sagen: „Wir haben diese URL, wie spammy ist diese URL unserer Meinung nach?“ In diesem Zusammenhang nutzen wir dutzende Signale – welche Spamwörter werden benutzt, welche Backlinks hat diese URL und wie spammy sind sie. Eine Mischung all dieser Signale ergeben den Master Ranking Algorithmus.

Der Trick dabei ist, den Algorithmus weit zu streuen. Amit Singahl (Leiter des Ranking Teams bei Google – Anm. der Übersetzer) und sein Team sind das Herz der Ranking Gruppe innerhalb der Suchqualität. Mein Team beschäftigt sich mit Webspam innerhalb der Suchqualität. Die Entkopplung dieser Bereiche ist gut, denn einerseits kann der Inhalt einer Seite relevant sein – Sie können Viagra auf dieser Seite kaufen – andererseits kann dieser Inhalt auch äußerst spammy sein. Die Herausforderung ist also, und das macht Google ziemlich erfolgreich, dass die Aufgabe eines Teams die ist, die relevantesten, aktuellsten Websites für die jeweilige Suchanfrage wiedergegeben werden. Heute Morgen (04. Oktober 2009 – Anm. des Übersetzers) hab ich die Suchanfrage BusinessWeek eingegeben, nachdem die Seite sieben Minuten zuvor von uns gecrawlt wurde. Wenn Sie diese Seite auf anderen Suchmaschinen überprüfen, dann ist es gut möglich, dass BusinessWeek vor vier oder fünf Tagen das letzte Mal gecrawlt wurde.

Frage: So ein großer Unterschied also? Schwer vorzustellen, zumindest im Fall von Microsoft und Yahoo.

Antwort: Siebenminütige Abstände sind so ziemlich das Beste was man erreichen kann. Ganz generell, Google ist aktueller. Und Google ist nicht nur aktueller, sondern dazu auch noch verständlicher. Dies sind die drei Schlüsselkomponenten: Aktualität, Verständlichkeit (hierfür müssen so viele Seiten wie möglich im Web gecrawlt werden) und Relevanz. Und die Erfahrungen der Nutzer sollen sauber sein. Wenn ältere Menschen gefragt werden: „Was gefällt Ihnen an Google?“. Sie werden antworten: „Sauber, schnell und relevant.“

Frage: Wie passt Caffeine, die neue Generation von Suchmaschinen, die sich derzeit im Test befindet, in diese Reihe?

Antwort: Caffeine (http://www.businessweek.com/technology/content/aug2009/tc20090811_853625.htm) war in erster Linie eine infrastrukturelle Veränderung. Ein großes Unterfangen, geleistet über mehrere Monate hinweg durch das Crawling- und Index- Team. Was Caffeine uns übermittelt ist fast dasselbe, jedoch viel besser, viel stärker und wesentlich flexibler. Wir haben dadurch die Möglichkeit Seiten wesentlich schneller zu indexieren. Es ist einfach in all diesen Bereichen fortschrittlicher.

Die Meisten werden keinen Unterschied erkennen. Nur ganz wenige Suchmaschinen-Experten sind unter Umständen in der Lage einen Unterschied festzustellen. Aber aus unserer Sicht ist es, als ob man die PS-Zahl seines Autos verdoppeln würde.

Frage: Also gut, dann erzählen Sie mir mal, wie Sie und Ihr Team Webspam angehen und wie Sie ihn verringern.

Antwort: Eines der Geheimnisse rund um Webspam ist, dass wenn Du ihn einmal gesehen hast und erlernt hast, wie man ihn erkennt, kann man ihn nicht mehr NICHT sehen. Und dann meint man intuitiv, wie in den vergangenen Zeiten, als man ständig noch Gedankenstriche sah, wie zum Beispiel billige-viagra-online-discount-pflanzliche-was-auch-immer.com, denkt man dann O.K., das ist eine Spam-Domain. Also haben wir unsere Systeme auch darauf trainiert, Domains mit einer bestimmten Anzahl von Gedankenstrichen als Spam zu erkennen. Leider hat sich herausgestellt, das das nicht ganz so einfach funktioniert, weil es in verschiedenen Kulturen nicht nur unterschiedliche zulässige Domains, wie beispielsweise blueberry-farms.com und gerade in Deutschland gibt es im Durchschnitt einfach mehr Domains mit einem Gedankenstrich.

Frage: Welche Methoden nutzen Sie? Wie viel wird dabei tatsächlich von Menschen erledigt, die sagen „Oh, das ist falsch“ und wie viel Ihrer Arbeit wird automatisiert erledigt?

Antwort: Es gibt eine Reihe von Menschen, die mit Technik nichts am Hut haben und die glauben, dass Google sämtliche 10 Ergebnisse für jede einzelne Suchanfrage manuell auswählt und diese dann an hunderte von Millionen Menschen täglich zurück sendet. Andere denken, dass alles komplett von Computern erarbeitet wird. Sicherlich bauen wir wesentlich mehr auf die Unterstützung von Computern und Algorithmen als viele andere große Suchmaschinen, zumindest bezogen auf die Vergangenheit.

Frage: Tun Sie das nicht alle? In welchen Bereichen verlässt sich Google mehr auf Algorithmen?

Yahoo kommt aus einem Background wo Editoren Ihre Verzeichnisse erstellt haben. Yahoo ist wesentlich offener dafür, Ihre Mitarbeiter Dinge editieren zu lassen. Bei Google haben wir nicht die Möglichkeit zu sagen, dass wir für diese Suchanfrage jenes Resultat erhalten möchten.

Frage: Oder Sie entscheiden, dass Sie das nicht tun dürfen.

Antwort: Es ist so, dass das Webspam Team die Möglichkeit hat zu sagen, dass eine bestimmte Seite Spam ist und sie aus diesem Grund heruntergestuft oder abgestraft wird. Was wir nicht können, ist zu sagen, dass für die Suchanfrage „Rob Hof“ die Seite der BusinessWeek an Nummer 1 ranken sollte. Ich denke, dies ist ein gesunder Mittelweg. Man will gar nicht die Möglichkeit haben so etwas zu können.

Frage: Um es klar auszudrücken, Sie haben es sich selbst ausgesucht zu so etwas nicht in der Lage zu sein?

Antwort: Richtig. Wir haben eine bewusste Entscheidung getroffen, in der wir festgelegt haben zu so etwas nicht in der Lage zu sein. Wenn man genau darüber nachdenkt, wird einem bewusst wie überfällig solche Entscheidungen sind, da die Ergebnisse weder skalierbar sind, noch in anderen Sprachen funktionieren.

In unserer Gruppe verlassen wir uns gewaltig auf Algorithmen. Wir versuchen ständig neue Techniken und Algorithmen zu erstellen. Wenn uns dann aber jemand schreibt, dass er bei seiner Suche nach „Rob Hof“ auf eine Pornoseite geleitet wurde, dann wäre diese Person doch recht unglücklich mit einer Antwort nach dem Motto „naja, wir werden wahrscheinlich einen neuen Algorithmus in ca. sechs bis neun Monaten haben, der dieses Problem erkennt. Also, versuchen Sie es zu einem späteren Zeitpunkt noch einmal und es wäre möglich, dass der Porno bis dahin verschwunden ist“. Also schreiten wir in so einem Fall ein. Selbst dann versuchen wir dies in einem skalierbaren Rahmen zu tun.

Frage: Wie denn?

Die Daten, die wir generieren helfen uns nicht nur dabei kurzfristige Probleme zu lösen. Nehmen wir beispielsweise an, dass es dort draußen einen bösen Hacker gibt, der bereits 100 Seiten gehackt hat. Wenn man in einem solchen Fall nur manuell vorgeht, ist man vielleicht nicht in der Lage alle 100 Seiten zu erwischen. Die Daten, die uns übermittelt werden und uns mitteilen, dass diese 67 oder jene 80 Seiten gehackt wurden ermöglichen es uns neue Klassifizierungssysteme zu erstellen, die diese gehackten Seiten entdecken – versteckte Texte oder ähnliche Dinge.

Frage: Was meinen Sie mit „gehackt“ in diesem Zusammenhang?

Antwort: Spammer hacken Seiten z.B. die von Al Gore oder auch andere Seiten mit hohem Traffic und erstellen von diesen Seiten aus Links, um andere Seiten zu spammen. Pro Nutzer verlangen Sie dann 10 Cents oder so was in der Richtung. Ich habe mit jemandem gesprochen, der seine eigene Blogger-Software geschrieben hat und gehackt wurde. Er hat herausgefunden was passiert war und er hat diesen Typ gezielt gesucht und er fand einen Auszug von seinem Code bei dem Typen.

Der traurige Trend geht dahin, dass obwohl PC’s immer besser werden, die Leute ihre Web Server Software wie z.B. WordPress und Drupal nicht up-to-date halten und werden deshalb oft gehackt. Also haben wir es mit unschuldigen Leuten zu tun, deren Seiten gehackt wurden und die nun Viagra verkaufen.

Frage: Wie genau gehen Sie mit so etwas um?

Antwort: Wir schreiben Detektoren. Wir haben Klassifizierungssysteme erstellt – einen Algorithmus, eine Heuristik – welche eine Menge an Signalen aufnehmen und uns letztendlich mitteilen: Ja, diese Seite wurde gehackt oder nein, und auch auf welcher Ebene des Verzeichnisses und solche Dinge.

Gehen wir beispielsweise von einer Seite aus, die schon seit langem besteht. Und plötzlich taucht auf dieser Seite ein neues Verzeichnis auf, welches ein Reihe von spamähnlichen Ausdrücken beinhaltet, so was wie Online Casinos und Schuldenkonsolidierung, Pillen, aber auch wenn plötzlich eine Menge eigenartiger Links von anderen Seiten auftauchen, dann kann man davon ausgehen, dass die Seite gehackt wurde. Also wird dieses Verzeichnis an Seiten für eine Weile nicht angezeigt, bis wir wissen ob es Spam oder Malware ist, oder die anderen 80 Seiten ebenso auf Malware gescannt wurden.

Etwas das wir haben, was soweit ich weiß außer uns niemand hat, ist eine Webmaster Plattform (http://www.google.com/webmasters/). Wir versuchen dem Betroffenen eine Nachricht zu hinterlassen. Das können wir natürlich nicht immer machen und schon gar nicht für jede einzelne Seite. Mit dieser Nachricht versuchen wir dem Betroffenen einen konkreten Textteil zu übermitteln. Schließlich ist es in unserem Interesse ein sauberes und gut durchleuchtetes Web zu präsentieren, welchem die Leute vertrauen können.

Frage: Während die Nutzer der Suchmaschinen in den letzten paar Jahren Ihr Suchvorgehen verfeinert haben, hat Google in dieser Zeit etwas getan um die Suchqualität zu verbessern?

Antwort: Die meisten der analytischen Dinge haben sich nicht sehr stark geändert – felsenfeste Dinge, die Testumgebung. Etwas das sich stark verändert hat ist, dass wir mittlerweile bereit sind mehr auf das Feedback von außen zu hören und ich glaube dass wir mittlerweile mehr dafür tun, Feedback aus dem Web zu sammeln. Insbesondere im letzten Jahr haben wir vermehrt auf die Außenwelt geachtet. Und wir kommunizieren mehr an die Außenwelt, wie unseren gestrigen Gmail-Ausfall (03.10.2009 Anm. des Übersetzers). Noch am gleichen Tag hatten wir einen Blog Post, verglichen mit einem Blog Post mehrere Tage nach unserem letzten Ausfall vor sieben oder acht Monaten.

Frage: Sie sind einige der wenigen öffentlichen Personen bei Google, die sich auch direkt mit Nutzern in Verbindung setzen. Wie hat sich diese Rolle entwickelt?

Antwort: Ich bin da irgendwie reingerutscht. Mittlerweile macht die Kommunikation ca. 20% aller meiner Projekte aus. Im Prinzip geht es ja darum, dass Webmaster fragen, warum ihre Websites nicht so gut funktionieren/ ranken. Es gibt aber mehrere Millionen Webmaster, hunderttausende von Millionen Nutzer und hunderte von tausenden Werbetreibende und viele von diesen wollen mit irgendjemand von Google sprechen. Also was denken Sie sind gute Wege um diese Menschen zu erreichen? Webmaster Foren, Blogs, Konferenzen, Antworten auf Twitter, Chats und Videos.

Frage: Was tun Sie und andere Personen bei Google gegen die Probleme, die ein großes Unternehmen hat – konkret gesprochen, was tun Sie dagegen das nächste Microsoft zu werden?

Antwort: Es gibt sehr viele Menschen bei Google, die dagegen ankämpfen einfach nur ein weiteres großes Unternehmen zu werden. Im Jahr 2005 wurde Eric Schmidt von John Battelle bei Web 2.0 gefragt, ob Google versucht Nutzerdaten auszuspähen und Eric antwortete, dass wir uns niemals diese Daten zu eigen machen würden. Es gibt die Möglichkeit Daten von Gmail, dem Google Kalender Tool oder auch von Blogs – genau genommen von jedem unserer Produkte – zu exportieren oder wir arbeiten zumindest daran. Wir haben sogar eine Gruppe, die sich Data Liberation Front nennt, die versucht jegliche Daten freizusetzen. Man kann nur Loyalität erwarten, wenn man den Menschen in aller erster Linie zeigt, dass man ein gutes Unternehmen ist. Wenn Sie Dir misstrauen, können sie gehen.

Frage: Technisch gesehen haben sie die freie Wahl, aber ganz offensichtlich ist es ja so, dass Google die beherrschende Position innehat.

Antwort: Ich denke wir sind uns dieser Sache sehr wohl bewusst. Battelle hat vor einiger Zeit einen Post darüber geschrieben, wie sich Google an der Spitze der Welt fühlen muss. Ich kann mich gut daran erinnern wie ich mir überlegt habe, ob es das ist wie es sich anfühlt an der Spitze der Welt zu stehen? Weil ich fühle mich so, dass ich jeden Morgen aufstehe und jeden Tag wirklich sehr, sehr hart arbeite, um die qualitativ hochwertigsten Suchergebnisse anzeigen zu können und wir kämpfen jeden Tag darum, unseren Nutzern nur das Beste bieten zu können. Es ist also sicherlich nicht so dass jeden Tag ein Haufen hämischer Googler zusammen sitzen und sich darüber unterhalten wie schön das Leben doch ist.

Wenn Sie sich einige der neueren Entwicklungen von Google anschauen – an dieser Stelle möchte ich beispielsweise Android, Chrome und Wave nennen – dann erkennen Sie dass all diese Entwicklungen gemeinsam haben, dass sie in vielen Teilen Open–Source basiert sind oder komplett frei sind. Wenn also jemand seinen eigenen Wave Server erstellen möchte, braucht er hierzu nicht zu Google wechseln.

Zudem gibt es noch diese Echtzeit-Initiative, an der einige Googler seit geraumer Zeit arbeiten. Sie nennt sich pubsubhubbub und Brad, einer derjenigen die sich viel damit beschäftigen hat sich gefreut, dass Google nicht der Mittelpunkt der Erde ist, jeder kann sich sein eigenes Drehkreuz aussuchen. Und Chrome ist nicht nur ein freier Browser, man kann selbst bestimmen, welchen Suchmaschinenanbieter man standardmäßig installiert haben möchte. Chrome ist also nicht festgelegt auf Google, er nutzt welchen Provider man auch immer standardmäßig angibt. Ähnlich wird es bei Android gehandhabt. Es gibt einige Menschen, die mit Android arbeiten, aber noch nie ein einziges Wort mit Google gewechselt haben, weil sie lediglich den Basiscode nutzen und damit witzige Dinge anstellen.

Frage: Wie sichert sich Google ab, dass sich Google nicht zu einem langsam dahin schleichenden Unternehmen entwickelt? Diese Thema wurde erst kürzlich von Anil Dash von Six Apart aufgegriffen, der geschrieben hat, dass Chrome OS zu „Google’s Microsoft Moment“ wird.

Antwort: „Don’t be evil“ – „Sei nicht böse“– das ist Google’s internes Motto – funktioniert immer noch. Nach außen hin mag das ein wenig abgedroschen klingen und viele gehen davon aus, dass es sich bei diesem Motto lediglich um Marketing handelt. Aber diese Einstellung gilt meiner Meinung nach weiterhin.

Als ich damals über Anil Dash’s Post schrieb habe ich sehr viel Aufmerksamkeit innerhalb der Firma erhalten. Bestimmt haben mich ein Dutzend Leute auf den Gängen angesprochen und mir dafür gedankt, dass ich das geschrieben habe – es ist eine Erinnerung daran, wie wir sein möchten.

Frage: Das bedeutet jedoch, dass einiges an Wahrheit in Anil’s Andeutung liegt, was nicht unbedingt eine gute Sache ist, oder was meinen Sie?

Antwort: Ich denke, dass Google zu der Zeit in einer Phase war, wo wir ein wenig durch den Dreck gezogen werden mussten. Der Post von Anil kam zur genau richtigen Zeit, um uns daran zu erinnern, dass es unser Anliegen ist, das Web zu verbessern. Unsere Aufgabe ist es, die besten Suchergebnisse zu liefern. Wir wollen uns nicht vor Feedback von außen verschließen.

Wenn Sie genauer hinschauen, war eine Kernaussage, dass man sich daran stören könnte, dass Google bevor es für das iPhone Applikationen herstellt, Applikationen für Android erstellt. Sein Hauptanliegen dabei war nicht, dass über jede Kleinigkeit diskutiert wird, sondern dass Google offener werden sollte für Feedback und sich zu dieser Offenheit verpflichtet. Und wenn man dann von jemandem auf dem Weg zum Erfolg eingeholt wird, dann liegt es daran, dass er mehr Leistung bringt und nicht daran, dass man seine Überlegenheit in diesem Gebiet ausspielt. Ich glaube, obwohl dies allen bei Google bewusst ist, war der Blog eine sehr hilfreiche Erinnerung. Und soweit ich das beurteilen kann, wird diese Meinung von den höchsten Verantwortlichen des Unternehmens unterstützt.

Frage: Google hat ein sehr gut funktionierendes System und jedes Unternehmen in einer solchen Position sollte sehr vorsichtig im Umgang mit Veränderungen sein. Wie verhindern Sie dabei zu vorsichtig vorzugehen?

Antwort: Da gibt es zum einen den Gewinnaspekt. Die Suchqualität interessiert sich nicht für Geld. Wir kümmern uns darum, dass die Suchergebnisse immer besser werden. Wenn es Geld kostet, dann ist das nicht unser Problem. Diese Entkopplung, fast schon eine Art „Kirche gegen den Staat“ Einstellung, hat immer sehr gut funktioniert. Es ist der Job von jemand anderem relevante Anzeigen dort zu platzieren, wo sie am besten zu den organischen Suchergebnissen passen. Und diejenigen machen sehr gute Arbeit. Wenn beispielsweise dass Anzeigenteam zu einem Zeitpunkt wo wir ein Suchergebnis ausgeben nicht mit relevanten Anzeigen aufwarten kann, dann schalten wir einfach keine Anzeigen. Unser Job dabei ist ganz einfach: Wir müssen die besten Ergebnisse liefern.

Ein weiterer Aspekt Ihrer Frage ist, wie wir neue Dinge entwickeln und dabei vermeiden Fehler zu begehen. Um Fehler zu vermeiden haben wir eine Menge verschiedener Tests, die wir immer durchlaufen. Die Alarmglocken schrillen, wenn unsere Testsysteme uns mitteilen, dass die ein oder andere Suchanfrage nicht die Resultate anzeigt, die wir erwartet hatten. Wir testen alles bevor wir irgendein Update zu unserem Index hinzufügen. Es passiert also einiges hinter den Kulissen bei Google, wo Google sich auch selbst hinterfragt, ob denn die richtigen Suchergebnisse ausgegeben werden.

Frage: Und wie versucht Google den nächsten großen Schritt nicht zu verpassen?

Antwort: Das ist schon lustig. Wir fragen uns ständig selbst, wann der Wendepunkt erreicht ist und es besser ist, wenn wir etwas Neues machen. Wir haben bereits unsere Indexierung neu überarbeitet und wir haben über das letzte Jahrzehnt hinweg mehrer Male die Verarbeitung der Resultate überarbeitet, möglicherweise weil sich die Balance zwischen verschiedenen Speichertypen verändert hat.

Wir versuchen auch mindestens einmal pro Jahr so genannte Brainstroming Sessions durchzuführen. Wir hatten bereits Qualitäts – Tage, wo Technikergruppen, in Teams mit zwei bis vier Mitgliedern, innerhalb einer Woche einen Prototypen eines ziemlich coolen Qualitätstools oder eines Benutzersicht-Features entwickelt haben, von dem sie dachten, dass wir es dringend benötigen.

Manchmal vergeben wir auch Aufgaben, wo wir jedem zwei Suchanfragen geben, die wir als schlechte Suchanfragen ermittelt haben und im Rahmen eines Brainstormings herausgefunden werden soll, wie man diese beiden Suchanfragen verbessert. Hey, die Welt liegt uns zu Füßen – es ist völlig in Ordnung, wenn man tausend Sekunden anstatt einer Sekunde benötigt. Hauptsache wir finden einen Weg um das Problem bei einer Suchanfrage zu lösen. Und wenn wir dann herausgefunden haben, wie man dieses Problem durch herumprobieren gelöst bekommt, dann finden wir heraus wie sich dieses Problem in hundert Millisekunden lösen lässt.

Ich bin mir sicher, dass wir nicht auf jede Idee kommen. Dafür haben wir aber auch ein Auge auf die Außenwelt geworfen und wenn es etwas gibt, was uns bisher nicht aufgefallen ist, dann wird uns die Außenwelt darauf aufmerksam machen. Wir versuchen niemals selbstgefällig zu werden und uns auf unseren Lorbeeren auszuruhen.

Das Originalinterview in Englisch finden Sie in der Business Week.

Jonas Weber

Diplom-Kaufmann Jonas Weber ist Geschäftsführer von webhelps! Online Marketing. Er ist Experte für Suchmaschinen-Optimierung und Online Marketing. Bis 2009 hat Jonas Weber beim Suchmaschinenmarktführer Google im Search Quality Team in Dublin gearbeitet. Ebenfalls war er im Online-Marketing Bereich von Konzernen wie Lufthansa und Bertelsmann tätig.

Weitere Artikel - High-End SEO Beratung

Follow Me:
TwitterGoogle Plus

Über Jonas Weber

Diplom-Kaufmann Jonas Weber ist Geschäftsführer von webhelps! Online Marketing. Er ist Experte für Suchmaschinen-Optimierung und Online Marketing. Bis 2009 hat Jonas Weber beim Suchmaschinenmarktführer Google im Search Quality Team in Dublin gearbeitet. Ebenfalls war er im Online-Marketing Bereich von Konzernen wie Lufthansa und Bertelsmann tätig.

3 Gedanken zu „Google Search Quality Prozess: Matt Cutts im Interview

  1. Pingback: » Das Ende ist nah… | seoFM - der erste deutsche PodCast für SEOs und Online-Marketer

  2. Jonas

    Super Interview. Danke für die Übersetzung.
    Matt Cutts wie man ihn kennt ^^
    Bin gespannt, was die Zukunft bringt.
    Gruß Jonas

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>