Hintergrund-Interview zum Panda-Update von Google

Mitte August 2011 hat Google das Panda-Update auch für den deutschen Sprachraum eingeführt. Wie bei jedem Update sollen damit die Suchergebnisse besser werden und vor allem Spam und bezahlte Inhalte von den vorderen Trefferplätzen verdrängt werden. Vor der algorithmischen Bestrafung zittern einige Seitenbetreiber, und die Branche der Suchmaschinen-Optimierer grübelt darüber, wie sie reagieren könnten. Marcus Tober, der Gründer und Chef-Technologe (CTO) von Searchmetrics, hat die Auswirkungen des Panda-Updates analysiert. Er spricht unter anderem über die Motive und die Arbeitsweise von Google sowie über Konsequenzen für Seitenbetreiber…

Was ist das Panda Update?

Der Hintergrund ist eine Qualitätsoffensive von Google, die schon im letzten Jahr mit dem MayDay-Update sichtbar war. Google hat immer wieder propagiert, dass der User im Vordergrund steht. Das heißt: Google versucht, Seiten aus dem sichtbaren Bereich zu verdrängen, die hohe Absprungraten aufweisen, eine schlechte Qualität haben und für den User einfach nicht wertvoll sind. Schon letztes Jahr hieß es, dass User-Signale immer wichtiger werden. Mit dem Panda-Update hat Google das weiter konsequent umgesetzt..

Wie erhebt Google diese User-Signale?

Google hat unglaublich viele Daten. Der Browser Chrome hat einen Marktanteil von weltweit 10%, es gibt die Google Toolbar, und viele weitere durch User ermittelte Daten. Am Ende hinterlässt jeder Spuren die von Google genutzt werden könnenum die Suche zu verbessern.

Das Geheimnis ist also die Verbindung von Algorithmus und Nutzerverhalten, für die Google so berühmt ist …

Ja, Google hat einen effizienten selbst lernenden Algorithmus, der mit sehr vielen Informationen gefüttert wird. Er wird aber auch aktiv von Google-Mitarbeitern trainiert. Google hat ein sehr großes Team von Search Quality-Ratern. Das sind oftmals Studenten, die teilweise von zu Hause aus arbeiten und Fragen beantworten. Das Google Search Quality-Team hat vor kurzem einen solchen Fragenkatalog im Webmaster Central Blog veröffentlicht. Beispielsweise wurde gefragt: „Würden Sie der Seite X bei gesundheitlichen Informationen vertrauen?“ oder „Würden Sie der Seite Y Ihre Kreditkarten-Informationen anvertrauen?“ All diese Ergebnisse fließen ein.

Was beinhaltet das Panda-Update konkret?

Es gibt keine offizielle Liste der Parameter, die beim Update berücksichtigt wurden, aber man kann Korrelationen erkennen. Die durchschnittliche Aufenthaltsdauer auf einer Website ist ein wichtiger Faktor, und, wie im letzten Jahr, die Absprungrate. Wenn ein Nutzer nach einer Google-Suche zur Trefferliste zurück kehrt, weil er nicht die Informationen gefunden hat, die er braucht, signalisiert er damit, dass die Seite eine schlechte Qualität hat. Auch die Menge an Werbung spielt eine Rolle. Wenn auf einer Seite vier Adsense-Blöcke zu finden sind, ist es klar, dass die Absprung-Rate extrem hoch ist.

Vielleicht wurde der Seitenbetreiber von einem Google-Adsense-Mitarbeiter dazu überredet …

Interessanterweise arbeitet Google teilweise gegen sich selbst. Auf der einen Seite gibt es die Account-Manager im Google-Adsense-Team, die ihren Kunden raten, Anzeigenblöcke so einzubauen, dass die Klickraten optimiertwerden, auf der anderen Seite sind die Ingenieure, die den Index verbessern wollen. Die Analyse nach Panda 1 für die USA und Panda 2 für alle anderen englischsprachigen Länder hat ergeben, dass Seiten, die zu exzessiv Werbung eingebaut haben, abgestraft wurden. Das heißt, dass die Sales-Leute und die Ingenieure im Prinzip gegeneinander arbeiten. Das liegt daran, dass Google eine Technologie-getriebene Firma ist. Sales-Leute sind erwünscht, aber sie sind nicht die, die das voran treiben.

Was für eine Rolle spielt Content beim Panda-Update?

Google berücksichtigt ganz klar auch die Qualität von Inhalten. Google kann erkennen, ob Inhalte eine eher eine niedrige oder eine hohe Qualität haben und ob sie einfach geschrieben oder kompliziert und wissenschaftlich sind. Seiten, die sich reihenweise billigen Content einkaufen, hat Google abgewertet. Suite101 ist so ein Beispiel oder das US-amerikanische eHow.

Wie wird die Qualität des Contents bewertet? Algorithmisch dürfte das schwierig sein …

Nein, auch das geht algorithmisch. Man sollte Google nicht unterschätzen. Die können Satzstellungen auseinander nehmen und bestimmte Begriffe mit Whitelists matchen. Dann gibt es noch etwas, das sich „Near Duplicate Content“ nennt. Der Inhalt ist nicht komplett mit einem anderen identisch. Aber es geht geht um das gleiche Thema, und der Text hat eine sehr ähnliche Struktur wie eine andere Quelle im Netz.

Wie effektiv sind eigentlich die Qualitäts-Offensiven von Google? Wie bei der Entwicklung von Verschlüsselungs-Technologien gibt es einen permanenten Aufrüstungs-Wettlauf. Google stellt seinen Algorithmus um, die professionellen SEO-Leute reagieren darauf. Wird das jetzt ein echter Qualitätssprung, oder sehen wir nur einen von vielen verzweifelten Versuchen?

Was Google gerade unmissverständlich klar macht, ist, dass echte Produkte und Marken im Vorteil sind. Eine entscheidende Änderung wurde öffentlich noch viel zu wenig beachtet. Google hat bei Brand-Begriffen wie „Audi“, „Tchibo“ oder „H&M“ offiziell und weltweit große Sitelinks eingeführt. Vorher waren Sitelinks klein und unauffällig, jetzt sind sie größer und sehr viel sichtbarer. Das hat teils dramatische Auswirkungen. Früher wurde bei solchen Suchbegriffen die Hauptseite wie Audi.de angezeigt, mit einigen kleinen Mini-Sitelinks. Gleich darunter kam Wikipedia und dann Affiliate-Seiten wie Autoscout24, Mobile.de oder Meinauto. Wenn man jetzt nach „Audi“ sucht, stehen unter der Marken-Domain zwölf Unter-Ergebnisse. Alle anderen Treffer werden dadurch nach unten gedrückt. Wir haben Kunden, die aufgrund von Sitelinks 60% oder 70% Traffic verloren haben.

also eine Maßnahme gegen Affiliates, die auf Marken optimieren …

Affiliates optimieren auf Brands. Wieso machen sie das? Weil die Conversion hoch ist. Wenn ein Affiliate auf die Marke Esprit optimiert, kann er damit eine Menge Geld verdienen. Und jetzt fängt Google an, ihm diesen Traffic weg zu nehmen, indem es die eigentliche Marke stärkt.

Mein Eindruck ist, dass, trotz aller Qualitäts-Updates, Google oft nicht gut genug hochwertige von minderwertigen Seiten unterscheiden kann. Immer wieder begegnen einem auf den vorderen Plätzen Treffer, die offensichtlich spammy sind.

Auch Google ist nicht perfekt. Wir können davon ausgehen, dass in Zukunft noch viele weitere Qualitäts-Updates kommen werden. Es spielt aber auch eine Rolle, welches Such-Volumen ein Keyword hat. Bei Begriffen, die selten gesucht werden, kann es sein, dass ein Suchbegriff einfach unterhalb des Radars von Google bleibt.

Das heißt: um so wichtiger das Keyword ist, umso besser ist auch die Qualität der Suche …

Mit Sicherheit.

Wie ist der momentane Stand des Updates in Deutschland? Was ist bis jetzt passiert?

Am 12. August ist das Panda-Update in Deutschland eingeführt worden. Wenn man nur auf Deutschland schaut, sieht man: es gibt etliche Preisvergleiche, die verloren haben, zum Beispiel Ciao.de oder Dooyoo. Die Wettbewerber Idealo und Billiger.de hingegen haben gewonnen. Man kann also nicht sagen, dass Preisvergleiche per se als schlecht gelten. Gutscheinseiten, die auf Brand-Keywords optimieren, haben logischerweise verloren. Auch User-Generated-Content-Seiten wie Gutefrage.net und Wer-weiss-was.de haben verloren.

Wieso ist auch Gutefrage.net abgestürzt? Der verständlich geschriebene, Service-orientierte Content ist oft genau das, wonach Nutzer suchen.

Das Problem ist, meiner Meinung nach, dass viele Leute immer wieder dieselbe Frage stellen, so dass es Near Duplicate Content gibt. Das können die Betreiber nur bedingt eindämmen. Grundsätzlich denke ich nicht, dass Google etwas gegen eine Seite wie Gutefrage.net oder Wer-weiss-was.de hat. Ich bin auch nicht vollständig mit dem, was Google gemacht hat, einverstanden. Da wo Seiten wegrutschen, kommen andere nach oben. Wenn eine Seite wie Gutefrage abstürzt und statt dessen ein Spamforum nach oben oben kommt, ist das keine Verbesserung.

Sind die Verluste kohärent, oder gibt es bei einzelnen Seiten auch widersprüchliche Auswirkungen?

Im Long Tail der Suchbegriffe hat Google weniger Anpassungen gemacht. Umso länger der Suchbegriff wird, umso niedriger wird die Suchhäufigkeit, weil weniger Nutzer den Begriff so verfeinern. Deswegen ist der Wettbewerbsdruck nicht so hoch, und auch nicht die Menge der User-Signale. Im Short Head, wie es in der SEO-Sprache heißt, haben Seiten mit schlechtem Content drastisch verloren, im Long Tail aber weniger.

Wer sind die Gewinner?

Klassische redaktionelle Formate Seiten wie Welt.de, bild.de oder sueddeutsche.de haben gewonnen. Das ist auch das, was Google möchte: gut recherchierte und gut strukturierte Inhalte nach oben bringen. Wikipedia ist schon immer unter den Gewinnern gewesen, das war bei allen Updates so. Auch Markenseiten mit viel eigenem Content haben profitiert.

Wie ist momentan die Stimmung in der deutschen SEO-Szene?

Ich will jetzt nicht sagen, dass die SEO-Szene in Aufruhr ist, aber das Spiel hat sich teilweise schon geändert. SEO war anfangs eine Sache, bei der man mit wenig Aufwand viel erreichen konnte. Ich habe zum Beispiel das größte Grußkartenportal Europas gebaut, mit bis zu 180.000 Visits am Tag, Grußkartenfreunde.de. Das war durch einfache SEO-Maßnahmen möglich. Dafür brauchte man kein großes Geld. Durch Wissen und ein akzeptables Produkt, es musste kein Top-Produkt sein, konnte man es schafften, eine gute Position zu erreichen.

Das ist jetzt anders?

Unter den Verlierern sind viele Affiliate-Seiten. SEOs verdienen ja auch durch eigene Projekte, durch Affiliate- oder AdSense-Programme viel Geld. Nenn mir einen SEO, der alleine eine richtig große Marke aufgebaut hat, die man kennt. Das gibt es so gut wie nicht. Wieso? Wenn du so etwas machen willst, brauchst du ein großes Marketing-Budget. Du kannst durch Venture Capital oder durch andere Geldquellen ein richtig gutes Produkt aufbauen, aber nur durch SEO wird’s schwierig bis unmöglich. Du brauchst Werbung, vielleicht sogar Fernseh-Werbung, um die Marke bekannt zu machen. Das Geld hat man als SEO nicht.

Was folgt daraus für professionelle Suchmaschinen-Optimierer?

Man muss als SEO jetzt ein bisschen wie ein Produkt-Manager denken und sich fragen: ist das, was ich tue, nicht nur gut im Sinne des Google-Bots, der meine Seite besucht, sondern auch im Sinne des Users? Wenn SEOs weiterhin erfolgreich arbeiten wollen, müssen sie daran denken, dass sie ein echtes Produkt brauchen. Der User muss auf eine Seite kommen, auf der er das vorfindet, wonach er auch gesucht hat. Früher ging es nur darum, dass ein User so schnell wie möglich auf Google Adsense oder einen Affiliate-Link klickt oder sofort etwas kauft. Das ist jetzt vorbei.

Was würdest du Seitenbetreibern allgemein raten?

Seitenbetreiber sollten sich verstärkt mit Ihrem Produkt und ihren Nutzern beschäftigen. Für Kennziffern wie die Absprungrate, Aufenthaltsdauer oder SEO Visibility gibt es die Google Webmaster Tools, Google Analytics oder die Searchmetrics Tools. Sie sollten schauen, ob die User ihr Produkt mögen. Und sie sollten auf die User zugehen und sie anregen, zu tweeten oder einen Like bei Facebook zu hinterlassen. Auch das sind User-Signale. Spiegel online hat es vorgemacht, unter jedem Artikel ist sehr prominent ein Facebook- und Twitter-Button eingebaut. Dadurch haben die eine sehr hohe Aktivität auf den Netzwerken. Social Links sind ein neuer, wichtiger Teil des Link-Buildings.

hat Publizistik und Soziologie studiert und lebt als freier Journalist in Berlin.


Artikel per E-Mail verschicken
Schlagwörter: , , ,

12 comments

  1. Danke für das ausführliche Interview! Ich freue mich besonders über die Feststellung: „Mit dem Panda-Update hat Google das weiter konsequent umgesetzt..“, denn auch wenn jetzt viel über das Panda Update gesprochen wird, darf man nicht vergessen, dass Google seinen Algo konsequent verbessern möchte und es sich hier weniger um selten auftretende Events handelt, sondern vielmehr konsequent verfolgte Entwicklungsarbeiten.

  2. Hi, eine sehr gute Zusammenfassung!
    @Steven Broschart – hier muss ich sagen man muss ein bisschen unterscheiden. Die Verweildauer ist kein Merkmal, dass bei alle Seiten gleich ist. Ich nehme stark an, dass alle Seiten kategorisiert sind und bei Seiten als Beispiel die Preisvergleichsseiten muss die Verweilsdauer nicht so hoch sein, wie bei Bild oder Spiegel. Grund dafür ist, dass wenn Du auf der Seite viel rumsuchst, Du nichts gefunden hast, was daraus folgt, dass die Seite Schrott ist!

  3. am interessantesten, weil bisher nirgends zu finden, der hinweis auf die neuen sitelinks. wir hatten 2 tage lange direkt nahc panda 10-15% gewonnen, danach dieses fast identisch wieder eingebüsst, vermutung : auf Grund der sitelinks. da sind wir ja auf IVW gespannt.

  4. @Nik – Hier kommen sicherlich einige Parameter zusammen, die sich gegenseitig beeinflussen. Eine isolierte Betrachtung würde zu keinem validen Ergebnis führen. So kann bspw. eine kurze Verweildauer in Kombination mit einer hohen Absprungrate ein eindeutiges Signal sein, dass die Seite nicht gelesen werden wollte/konnte. Ich darf an dieser Stelle vielleicht auch einmal auf meinen Blog-Artikel zu diesem Thema aufmerksam machen: http://seo-usability.blogspot.com/2011/09/panda-bringt-noch-mehr-nutzerverhalten.html

  5. Weiß jemand, wie Google auswählt, welche und wie viele Sitelinks angezeigt werden? (Und natürlich auch: wie man das selbst einflussen kann?) Die Zahl an Sitelinks schwankt zwischen 2 und 6, und in der Auswahl lassen sich keinerlei Muster erkennen.

  6. Für mich klingt es bisher so, als wäre dies wahrlich ein Quantensprung für die Google-Suche, wird doch endlich das wirkliche Interesse der User berücksichtigt und billige Content-Farmen abgestraft. „Content is King“ ist oft strapaziert, aber wird nun anscheinend belohnt…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert