Category Archives: Google

Der Europäische Gerichtshof hat heute geurteilt, dass ein Spanier auf Grundlage der europäischen Grunderechte-Charta ein Anrecht darauf hat, dass Google einen 15 Jahre alten Artikel über die Zwangsversteigerung seines Hauses „vergessen“ muss. Dieses Ergebnis darf nicht mehr bei Suchen nach seinem Namen angezeigt werden. 

Immer wieder hört man SEOs sagen, dass Google Webseiten von großen Marken bevorzugen würde. „Google liebt Brands“ heißt es dann. Und es ist ja auch so, dass viele schlecht optimierte Brand-Seiten weit vorn in den Suchergebnissen stehen oder Marken-Seiten sich deutlich mehr graue SEO-Methoden rausnehmen können als andere.

Sind rein textliche Erwähnungen von URLs (ohne href) nun Backlinks für Google oder nicht? Das war mir lange unklar. In den Webmastertools habe ich heute einen (recht alten) Link entdeckt, der auf der „verlinkenden“ Seite aber nur als Text-Erwähnung vorhanden ist.

Heute ist mir beim manuellen Ranking-Check etwas komisches aufgefallen. Die Autorenbilder und der Name des Autoren, die normalerweise auf das Google+ Profil verlinkt sind, linken jetzt zurück auf Google.de und zwar genau auf die Suchabfrage, die vorher erfolgt ist (über den Parameter q=Suchbegriff). Der „in 80 Google+ Kreisen“-Schriftzug verlinkt weiterhin wie gewohnt auf die Google+ Seite des Autors.

Hier ein Beispiel für ein Ranking auf Platz 1.

google-serp-autor

Vor einiger Zeit berichtete ich hier über ein System zur Refinanzierung von Web-Inhalten, welches Google im englischsprachigen Raum vorgestellt hatte. Dabei wurden ausgewählten Publishern in einem Testlauf ein Skript angeboten, welches die unteren zwei Drittel eines Artikels gepixelt darstellt, so dass man sie nicht lesen konnte. Selbst Bilder wurden verpixelt. Beteiligt waren die Oxford University Press, Peachpit Press und DK. Im Artikel selber war dann eine Option eingeblendet, dass man bequem über sein Google Wallet Konto den kompletten Artikel kaufen konnte:

Der Google-Chef Eric Schmidt besucht Nordkorea, um sich dort über die Situation im Land zu informieren. Was niemand weiß: Dabei wurde auch eine weitgehende Kooperation mit dem kommunistischen Land vereinbart. Aus geheimen Quellen habe ich exklusiv den ersten Screenshot der neuen nordkoreanischen Suchmaschine erhalten. Wie immer verteidigt Google die Meinungsfreiheit … im Rahmen der nationalen Gesetze. Damit sind die Ergebnisse von Google Nordkorea aus westlicher Sicht vielleicht etwas einseitig, aber bieten dem Durchschnitts-User die relevantesten Ergebnisse:

google-suche-nordkorea

Vor kurzem wurde im GoogleWebmasterHelps Channel auf YouTube ein Video von Matt Cutts veröffentlicht, in dem er über die typischen Wartezeiten bei Reconsideration Requests spricht. Ganz nebenbei stellt er auch die 4 typischen Antworten vor, die man von Google im Falle eine Requests bekommen kann. Und erklärt endlich auch, was die zunehmend häufige „Ihre Webseite wurde jetzt von uns überprüft“-Antwort wirklich bedeutet.

Google würfelt nicht, Google wirft Münzen.

Die eigentliche Frage des Videos war, wielange man auf eine Antwort nach einem Reconsideration Request warten sollte. Im Falle der Fragestellerin Laura aus Manchester waren es 2 Monate. Matt machte hier klar, dass dies viel zu lange sei. Normalerweise antwortet Google innerhalb von ein oder zwei Wochen („a week or it can be several days“). Natürlich kommen gerade nach Google Updates oder dem Versand von Warn-Nachrichten via Webmaster-Tools deutlich mehr Requests rein und die Abarbeitung dauert dann etwas länger. Matt Cutts empfiehtl, wenn man nach einigen Wochen noch nichts von Google gehört hat, den Request nochmal zu stellen und im Text auf den alten Request zu verweisen. Ich würde in einem solchen Fall eine kurze Einleitung schreiben, das Datum des vorherigen Requests nennen und den Text des vorherigen Requests komplett mitsenden. Alternativ oder sogar ergänzend kann man auch im Webmaster Forum nachfragen, was der Stand der Dinge mit dem Request ist.

Nun aber zu den typischen Antworten. Laut Matt Cutts gibt es 4 Arten von Antworten, die man erhalten kann (auch wenn er im Video „3 different replies“ sagt):

  • Request erfolgreich: Manuelle Maßnahmen wurden aufgehoben.
  • Request abgeleht: „Ihre Website verstösst immer noch gegen die Webmaster Richtlinien“ (-> Interview mit einem Google-Spamfighter)
  • Es liegen keine manuellen Maßnahmen vor. (rein algorithmische Penalty -> disavow-Tool)
  • „Ihre Website wurde jetzt von uns überprüft.“ („We have processed your reconsideration request.“)

Der 4. Punkt war auch bei unseren Requests der Fall. Die komplette Antwort liest sich dann wie folgt:

Wir wurden von einem Website-Inhaber gebeten, die Indexierung folgender Website erneut zu überprüfen: http://www.domain.de/.

Ihre Website wurde jetzt von uns überprüft. Während der Überprüfung einer Website stellen wir sicher, dass sie nicht gegen unsere Richtlinien für Webmaster verstößt. Stellen wir keine Fehler fest, werden wir die Indexierung Ihrer Website erneut in Betracht ziehen. Falls Ihre Website danach immer noch nicht in unseren Suchergebnissen angezeigt wird, erhalten Sie in unserer Hilfe für Webmaster weitere Informationen zu diesem Thema.

Alles sehr schön nichtssagend. Man weiß als Webmaster nicht wirklich, was jetzt Sache ist. Dazu hat Matt Cutts jetzt im Video Folgendes erklärt:

Sometimes you flip the coin and you dont land on „heads“ -> yes or „tails“ -> no, but you sort of get the very side of the coin. And in that case you’ll get something that says: „We have processed your reconsideration request.“ Typically what that means is there might have been multiple issues. So maybe one issue is resolved but there is still another issue. Or removed from something where we thought the entire domain was … uh … not as good to maybe be ware more granular. And so that just means „Ok, there is still some issues, but more of them have been resolved.“

Erste Erkenntnis: Google wirft also eine Münze um über Reconsideration Requests zu entscheiden. 😉

Zweite Erkenntnis: Diese Antwort erhält man, wenn man im Abbau der Maßnahmen, die gegen die Webmaster Richtlinien verstossen haben und Ursache der Penalty waren, ein gutes Stück voran gekommen ist. Insgesamt reicht es zwar noch nicht aus, um aus der Penalty entlassen zu werden. Man ist aber auf einem guten Weg. Es liegen mehrere Probleme vor, von denen einige zufriedenstellend gelöst wurden, andere noch nicht. Natürlich verrät Google nicht, welche Probleme das jeweils sind, das wäre ja zu einfach. Interessant fand ich den letzten Satz im Zitat oben. Da steht, es gäbe noch „ein paar Probleme“ („some issues“), aber der Großteil („more of them“) wäre schon gelöst. Wenn man das wirklich so interpretieren kann, dann bedeutet das, dass man eigentlich schon recht weit im Genesungsprozess ist. Wer also eine solche Antwort erhält, der sollte sich dadurch auf keinen Fall entmutigen lassen, sondern noch mehr Energie investieren, um auch noch die letzten Probleme zu lösen.

Man sollte eine solche Antwort aber auch zum Anlass nehmen nochmal darüber nachzudenken, ob man wirklich alle möglichen Problemursachen betrachtet und bewertet hat. Vielleicht hat man nur auf einem Themengebiet sehr viel Energie investiert, dabei aber andere Verstösse gegen die Webmaster Richtlinien komplett übersehen. Hier ist also eine Re-Evaluierung dringend angeraten.

Hier  das Video zum Anschauen:

Was ist SEOlyze.com?

SEOlyze (www.SEOlyze.com) ist ein Optimierungs-Tool auf Grundlage der WDF/IDF-Methode, die von Karl Kratz (Google+, Facebook) auf diversen Konferenzen vorgestellt wurde (ausführliche Erklärung hier) und gerade eines der angesagtesten Themen im SEO-Bereich ist. Linkless Outranking ist dabei immer Karls Zauberwort, also die Optimierung des Rankings durch gezielte Steigerung der Relevanz einer Landingpage im Vergleich zu ihrem Umfeld (Wettbewerber-Landingpages), ganz ohne Linkaufbau. Philipp Helminger (Google+, Homepage)  hat mit dem eps analyzer bereits ein solches Tool am Start, gemeinsam mit Leo Kobes (Google+, Facebook) wurde jetzt daraus SEOlyze entwickelt.

Das heißt es wurde technisch der bisherige eps analyzer genommen, der jetzt im Projekt SEOlyze weiterentwickelt wird. Hier der Blogbeitrag, in dem Philipp das ursprüngliche Tool vorstellt.

In der Selbstbeschreibung erklärt sich das Tool so:

Auf Basis bereits bekannter mathematischer Formeln (WDF / IDF) in Verbindung mit eigenen Faktoren und Berechnungen ist es möglich, zuverlässige Aussagen hinsichtlich des inhaltlichen Aufbaus von Webseiten treffen zu können. Für diese Art der Analyse wird nicht jedes Dokument als Einzelnes betrachtet, sondern es werden multible Dokumente untereinander in Relation gesetzt, um so auch das betroffene Umfeld in die Berechnungen mit einfließen zu lassen.

Durch diese neuartige Berechnung ist es möglich, zuverlässig Aussagen zu treffen, wieso bestimmte Webseiten bei ausgewählten Keywords in den Suchmaschinenergebnissen bei Google in den Top 10 stehen.

Meiner Meinung nach müsste es im zweiten Absatz statt „zuverlässig Ausagen zu treffen“ heißen „wahrscheinliche Indikatoren zu erkennen“.

Im Tool wird der EPS-Keyword Factor (EPS-KF) verwendet, wobei ich nicht rausfinden konnte, wofür die Buchstaben EPS stehen. Philipp: „EPS selbst ist einfach nur die Grundbezeichnung meiner Tools“.

EPS-KF ist dabei einfach die Bezeichnung für (WDF*p*IDF), p ist der Korrektur-Faktor, der „so lange getuned [wurde] bis die Auswertungen auf möglichst viele Testfälle korrekt anwendbar [waren].“

Also nochmal, was ist SEOlyze?

Ein Tool, was Dir sagt, welche Terme (Neben-Keywords) und in welcher „Dichte“ (sorry Karl) man benötigt, um Google eine besonders hohe Relevanz eines Dokuments für ein bestimmtes Haupt-Keyword zu signalisieren.

Wie funktioniert das Tool?

Am Anfang gibt man ein Keyword ein und wählt, welche Länderversion von Google benutzt werden soll (Deutschland, Österreich, Italien, Frankreich, etc.). Es werden die Top 10 der SERPs ausgelesen, zusätzlich kann man eine eigene URL mit in die Analyse einbeziehen lassen.

Anschließend erhält man eine Tabelle mit den extrahierten Keywords, wobei Füllwörter schon durch einen automatischen Filter beseitigt wurden. Die Tabelle mit den Dimensionen Keyword-Terme und Webseiten enthält für jede Kombination den WDF-Wert und den EPS-Keywordfaktor. Sie ist aber noch etwas unübersichtlich geraten, man muss gerade in der Breite viel scrollen und verliert so leicht aus den Augen, welche Zeile oder Spalte man gerade betrachtet. Auch eine absolute Relevanz der einzelnen Keywords lässt sich hier schlecht ablesen, da die Tabelle scheinbar nach dem EPS-Werten für die erste Seite sortiert ist.

Danach wird es deutlich übersichtlicher. Es folgen 10 Charts mit den EPS-Werten der selektierten Keywords. Damit versteht man schnell, wie sich das Vorkommen der Keywords auf den Domains verteilt, eine nützliche Übersicht.

Im Gesamt-Chart bekommt man einen guten Überblick über die EPS-KF der verschiedenen Keywords auf den ausgewählten Seiten, wobei man sehr einfach (durch Überfahren mit der Maus) den höchsten Wert für das Keyword ablesen kann. Hier kann man die Relevanz, die in der Tabelle schwer zu erkennen war, optisch gut wahrnehmen (wenn die Kurve wieder ansteigt bei bestimmten Keyword-Termen).

Damit kann man nun vergleichen, wie die relevanten Terme der Top10 auf der eigenen Seite vorkommen und findet heraus, welche Terme man optimieren muss und wie intensiv.

Das Gesamt-Chart mit der Verteilung der Terme, farblich hervorgehoben habe ich die Terme die man manuell zu 2-Wort-Termen weiterentwickeln muss.

Wie gut kann man damit arbeiten?

Ziel einer WDF/IDF Analyse ist ja der Vergleich der Relevanz eines eigenen Dokuments mit den sehr gut rankenden Dokumenten. Dazu benötigt man die relevanten Terme der Top10 (diese liefert das Tool gut) und den Vergleich mit der eigenen Seite.

Gerade für diesen konkreten Anwendungsfall ist das Tool aber noch nicht ausgereift. Im Gesamtchart ist die eigene Seite nicht besonders hervorgehoben, Abweichungen von der Verteilungskurve erkennt man nicht sofort. In der Tabelle, die zu groß und unübersichtlich geraten ist, kann man das auch nicht ablesen. Hier wäre eine deutlich userfreundlichere Ausgabe gefragt.

Das automatische Ausfiltern von Füllwörtern funktioniert im Großen und Ganzen gut, aber man kann hier nicht manuell nachfiltern, was die Analyse erschwert. So wird einem für „Pflegeversicherung“ auch das Keyword „Daniel“ vorgeschlagen, was sicherlich mit diversen Erwähnungen unseres Bundesgesundheitsministers zusammenhängt. Sein Nachname „Bahr“ wird aber automatisch rausgefiltert. Hier wünsche ich mir mehr Kontrolle über die Filter.

Erschwert wird die Analyse, weil das Tool nur mit Ein-Wort-Termen arbeitet. So werden in meinem Beispiel für das Keyword „Pflegeversicherung“ die Keywörter „Pflegeversicherung“, „gesetzlichen“, „privaten“, „gesetzliche“ und „private“  getrennt analysiert. Relevant sind aber ganz sicher nicht die Einzelterme, sondern die 2-Wort-Terme „gesetzlichen Pflegeversicherung“ / „gesetzliche Pflegeversicherung“ und „privaten Pflegeversicherung“ / „private Pflegeversicherung“. Für diese erhält man keine Werte und kann sie somit nicht optimieren. Es ist hier also immer noch Köpfchen gefragt, um die Ergebnisse gut zu interpretieren. Man muss abweichend von den Werten die SEOlyze.com ausgibt selber 2-Wort-Terme konstruieren und deren EPS-KF im Kopf berechnen. Die Erkenntnis wäre hier also, dass Formulierungen wie „[bei der] gesetzlichen Pflegeversicherung“ häufiger vorkommen als „[die] gesetzliche Pflegeversicherung“.

Was fällt sonst noch auf?

Die Analysen laufen sehr schnell und ohne technische Fehler ab. Man bekommt sofort alle Ergebnisse präsentiert, das Tool ist performant.

Positiv fällt auf, dass man ein Informationsfeld ausklappen kann, dort wird sehr einfach verständlich erklärt, was EPS-KF bedeutet.

Andererseits werden manche Spaltenbeschriftungen gar nicht erklärt. So wird für jede Seite ein Wert namens „Occ“ ausgegeben. Hier dachte ich erst, dass es eine coole Abkürzung für einen noch cooleren mathematischen Wert ist. Laut Google wäre OCC aber entweder „Orange County Choppers“ (ein Motorrad-Hersteller), das „Office of the Comptroller of the Currency“  oder „Obsessive Compulsive Cosmetics“. Ich denke Occ steht für „occurrence“, also Vorkommen oder Anzahl. Hier wäre eine Erklärung per MouseHoover Feld ganz nett.

Ich persönlich finde den Namen ungünstig gewählt, er ist zu ähnlich zum etablierten SEO-Tool SEOlytics.

Was kostet das?

Das weiß ich noch nicht, laut Leo werden die Preise in den nächsten Tagen bekannt gegeben. Das Tool arbeitet auf Basis von Credits, jede Keyword-Analyse kostet 1 Kredit. Wenn man jedoch innerhalb von 12 Stunden auf die Analyse für dasselbe Keyword nochmal zugreift, wird kein zusätzlicher Kredit verbraucht. Beim EPS-Analyzer von Philipp Helminger gingen die Paketpreise bei monatlich 39 € los, hinauf bis zu 199 €.

Gesamtbewertung

Es handelt sich hier nur um einen Beta-Test und daher kann man kein abschließendes Urteil über SEOlyze bilden. Insgesamt funktioniert das Tool sehr performant und fehlerfrei. In der Usability kann man zwar noch einiges verbessern, aber SEOlyze liefert schon jetzt gute Ergebnisse für eine WDF/IDF Analyse von 1-Wort-Termen.

Was fehlt ist einerseits eine wirklich gute Aufbereitung der Ergebnisse, insbesondere beim Vergleich der eigenen Seite mit der Top10 und anderseits Unterstützung beim Prozess, der nach der Analyse folgt. Hat man die zu optimierenden Terme gefunden und textet nun neu, dann muss man die überarbeitete Seite erst live stellen um sie dann wieder mit dem Top10-Set vergleichen zu können. Ein Text-Tool, welches auf der Analyse aufbaut, würde die Sache wirklich rund machen.

Die WDF/IDF-Berechnungen sind ja alle kein Geheimnis, große Crawling-Kapazitäten benötigt man für das Tool auch nicht. Wer möchte, kann sich sowas also ganz individuell selber hinprogrammieren. Für alle anderen ist SEOlyze.com eine nette Alternative. Am 15. November ist der offizielle Launch. Hier gehts zur Seite.

Andre Weyher hat 5 Jahre bei Google gearbeitet, drei Jahre davon im Search Quality Team von Matt Cutts. Im Interview mit JamesNorquay.com erzählt er von seiner Zeit bei Google, über aktuelle SEO-Faktoren und sein neues Projekt zum Aufdecken von Webseiten-Netzwerken. Hier die wichtigsten Aussagen:

(Update vom 23.10. siehe unten)

Wie läuft die Spam-Beurteilung bei Google?

Bildquelle: Alexander Klaus / pixelio.de

Andre erklärt, dass jeder Spamfighter einen speziellen Themenbereich oder ein Marktsegment zugeteilt bekommt, dass er/sie überwacht. Das heißt, dass z. B. bei deutschen Versicherungs-Webseiten immer die gleichen Mitarbeiter verdächtige Seiten beurteilen und Penalties aussprechen werden. Wahrscheinlich landen dann auch Reconsideration Requests bei den gleichen Leuten. Das heißt für uns SEOs wirklich aufpassen, denn man kann nicht einfach viele Requests rausschickt und hofft, dass man mal bei irgendeinem Mitarbeiter durchkommt. Wahrscheinlich wird sich der Typ genau an Euch erinnern.

Außerdem erstellen die Spezialisten von Zeit zu Zeit auch Reports über das Spam-Niveau in ihrem jeweiligen Marktsegment. Damit kann das Quality Team dann wahrscheinlich priorisieren, in welchen Sektoren besonderer Handlungsbedarf besteht.

In seiner Zeit bei Google hat sich die Spam-Beurteilung einer Seite im Wesentlichen in 3 Bereiche gegliedert:

  1. OnPage-Spam (unsichtbarer Text, Keyword-Stuffing, etc.)
  2. Content-Qualität
  3. Backlinks

Wie werden Backlinks beurteilt?

Dazu gab es einige Details. Einerseits geht es natürlich um die Anzahl der Links, aber letztlich zählt die Qualität der Backlinks viel mehr als die Anzahl oder Linkpower. Gleich an zwei Stellen betont Andre „Relevance is the new PR“, also „Themenrelevanz ist der neue PageRank„. Neben der Themenrelevanz der verlinkenden Seiten ist auch deren Qualität wichtig. Hier berichtet er, dass Google verstehen möchte, ob eine Seite existiert, um eine gute Seite zu sein oder nur um Links zu erzeugen. Das zielt ganz klar auf Expired Domains, die ja als Linkpower-Hubs derzeit noch gut funktionieren.

Auch die Proportion zwischen „kommerziellen“ und „nicht-kommerziellen“ Anchor-Texten ist laut Andre wichtig. Das heißt auf gut Deutsch: In wieviel % der Anchortexte kommen Money-Keywords vor.

Hier also nichts Neues, sondern nochmal eine Bestätigung dessen, was Google schon eine ganze Weile sagt.

Ein paar konkrete Tipps zu den Backlinks gab es dann doch:

  • Alles, was man automatisiert oder mit großen Netzwerken tun kann, ist ein Risiko für Eure Seite.
    Das heißt Kommentarskripte, Expired Domain Linkpower Hubs, gekaufte Links, etc.
  • Backlinks müssen themenrelevant sein, um wirklich aufs Ranking einzuzahlen.
    (siehe oben)
  • Unterschätzt nicht Verzeichnisse und Kataloge.
    Diese wurden ja mehrfach totgesagt, doch ordentlich gepflegte Verzeichnisse sind immer noch eine gute Backlink-Quelle. Achtet auf einzigartige Beschreibungstexte.

Und auch OnPage Tipps:

  • Etwas verklausuliert sprach er über die Wichtigkeit, eine gute Domain zu wählen.
    Ich interpretiere das so, dass Keyword-Domains immer noch stark aufs Ranking einzahlen und – trotz des letzten Updates – das auch noch eine Weile tun werden.
  • Description, Title, H1/H2 und andere OnPage Faktoren werden oft vernachlässigt, weil sich alles auf die Linkgewinnung konzentriert.  Hier sollte man Energie investieren, wirklich gute Titel und Beschreibungen zu finden. Aber natürlich nicht übertreiben, wissen wir ja.
  • Übertreiben heißt z. B. „mehr als 2 kommerzielle Keywords im Titel“
    Das war mal eine ganz konkrete Aussage, die kann man gleich auf die OnPage-Checkliste übernehmen. Wahrscheinlich lässt sich dieser Ratschlag auch auf Description und H1 übertragen.

Dann gab es noch das Übliche zu hören über Qualität des Contents, man merkt dass er ein Padawan von Matt Cutts war.

Wie wichtig wird Social und Google+?

Sehr wichtig bis unverzichtbar. Die Suchergebnisse von Google werden noch deutlich lokaler werden (siehe OMCap Recap). Statt landesweit das gleiche Ergebnis anzuzeigen, werden je nach Region unterschiedliche Seiten ranken. Soziale Signale werden dabei ein wichtiger Rankingfaktor sein. Die Integration von Google Places in Google+ zeigt das ja schon deutlich.

Auch die Wichtigkeit von Google+ wurde nochmals betont, Google wird dieses Thema nach Andres Einschätzung nicht so schnell aufgeben. Ein Hinweis, dass es derzeit auch noch nicht so läuft wie erhofft, aber trotzdem viel Energie investiert wird. Zum AuthorRank sagte er aber nichts.

Netzwerke erkennen

Dann sprach Andre noch über sein neues Projekt netcomber.com. Dabei geht es darum, Netzwerke von Webseiten der gleichen Inhaber zu erkennen. Dazu werden verschiedenste Techniken genutzt, unter anderem identische Affili-Codes oder Hosting-Informationen. Aber selbst ähnlicher „Coding-Style“, also die Art und Weise wie programmiert wurde, wird für diese Beurteilung herangezogen. NetComber will diese Informationen für Webmaster öffentlich machen. So kann man potentielle Linknetzwerke erkennen.

Dieses Thema fand ich interessant, denn hier wird natürlich KnowHow einfliessen, was bei Google gewonnen wurde. Ganz klar sagt er „Search engines always used this data in their fight against spam, checking the quality of a network, or even taking down an entire (spammy) owner cluster.“. Das heißt, zu verstehen, wie NetComber Netzwerke identifiziert, kann auch dabei helfen, eigene Netzwerke zu schützen oder halt zu vermeiden, aus Versehen solche Netzwerke in der eigenen Backlinkstruktur zu haben. Je nach bevorzugtem SEO-Stil. 🙂

Weitere Infos

 

Ergänzung vom 23.10.2012

Ich habe in einem Artikel auf searchengineland.com, der auch über das Interview berichtet, einen Kommentar von Google zu den Aussagen von Andre Weyher entdeckt. Diesen möchte ich der Vollständigkeit halber hier mit aufnehmen:

He didn’t work on webspam engineering or algorithms at Google. Given that we saw several incorrect statements in even this quick interview, we’d recommend sticking to trustworthy sources for accurate info on how Google works.

Die Antwort darauf von Andre Weyher (gekürzt):

[…]
No one within Google knows the entire picture apart from maybe 1 engineer, 1 level under Larry Page.
[…]
By reviewing literally thousands of cases of what NOT to do, you learn what the limits are and from what exact point Google starts seeing something as spammy.
[…]
As far as elements like commercial keywords in titles are concerned, I don’t think anyone would doubt that Google doesn’t like on-page over optimization. You can give it another name but it comes down to the same thing: try to make your page only search engine focused is not something Google likes.
It’s hard for me to comment about any incorrect statements without Google describing which were incorrect.

2 Möglichkeiten: Entweder da war wirklich viel Blödsinn dabei (was ich nicht glaube) oder jemand bei Google ist sauer, dass Interna ausgeplaudert wurden.

Google präsentiert eine Bezahl-Möglichkeit für Content, die auf den ersten Blick sowohl einfach einsetzbar als auch sehr durchdacht scheint. Sogar eine „Geld-zurück-Garantie“ für die Benutzer gibt es. Was müssen SEOs jetzt beachten?

In einem Artikel auf finanzen.de hatte ich bereits beschrieben, wie Google einige seiner vielen Dienste nutzt, um auch im eCommerce kräftig mitzuverdienen. Vom Bezahldienst „Google Wallet“ gibt es jetzt eine Version speziell für Content. Mit diesem, derzeit nur in den USA verfügbaren, Service können Anbieter von Content einzelne Artikel für einen Preis zwischen 25 und 99 US-Cent anbieten. Bereits am Dienstag hatte 9to5Google vorab darüber berichtet, am Mittwoch gab es die offizielle Ankündigung von Google, die auch vom GoogleWatchBlog aufgegriffen wurde. Auch Golem berichtete.

Einbindung und einfache Nutzbarkeit

Der Betreiber muss dafür nur einen Code von Google einbauen, Details zum Code waren aber vorerst nicht zu finden. Dieser Code sorgt dafür, dass auf der Seite der obere Teil frei lesbar ist, ab einer bestimmten Stelle (die vom Betreiber frei definiert werden kann) aber ein Banner erscheint, der zum Bezahlen auffordert. Der Text unterhalb des Banners ist „grau übermalt“ und somit nicht lesbar. Auch im Quelltext ist der Text nicht auffindbar, so dass sich der Schutz nicht so einfach umgehen lässt. Hier ein Live-Beispiel. Selbst Bilder codiert das Google-Skript, wie sich hier sehen lässt.

ein Beispiel für die Google-Wallet-Einbindung, Quelle: content.dk.com/knitting

Einfaches Bezahlen und Geld-Zurück-Funktion

Der Kauf ist super einfach. Ist man bei Google eingeloggt (und bei Wallet registriert), dann erscheinen im Banner der eigene Google-Benutzername und der Bezahlen-Button sowie ein Hinweis auf die Geld-Zurück-Funktion. Ein einziger Klick auf den Kauf-Button genügt und die Inhalte werden geladen (es erscheint „your purchase is in progress“ und dann später „you own this content“, gefolgt von einem Link zu allen eigenen gekauften Inhalten).

Ist man noch nicht für Wallet registriert, so öffnet sich beim Klick auf den Kauf-Button ein Popup in dem man seine Kreditkarten-Daten eingeben muss. Auch deutsche User können diese Option nutzen. Dann noch kurz die „Terms & Conditions“ bestätigt und schon wird der Inhalt freigeschalten.

Ein besonderer Vorteil ist die Geld-Zurück-Funktion („Instant Refund“). Innerhalb von 30 Minuten nach Kauf kann ein User mit einem einzigen Klick seinen Kauf rückgängig machen. Der Inhalt wird wieder kodiert, man kann optional Gründe angeben. Schön ist auch, dass Google einen Counter anzeigt, wie lange man noch Zeit für den Refund hat.

die Geld-Erstattungs-Funktion von Google Wallet, Quelle: Google

Ich finde diese Möglichkeit deshalb so gut, weil sie die Akzeptanz von MicroPayments für Inhalte stärken wird. Wenn User wissen, dass sie gefahrlos in einen Artikel reinschnuppern können, dann werden wesentlich mehr User bereit sein, für einen Artikel zu bezahlen. Natürlich wird es ein paar Leute gaben, die versuchen sich kostenlos Inhalte zu erschleichen. Aber Google hat dieses Problem schon jetzt erkannt und angekündigt, man werde prüfen, ob bestimmte User besonders auffällig bei der Anzahl der Stornos werden.

Ranking von kodierten Inhalten

Interessant für SEOs ist natürlich, ob das Einsetzen von Wallet for Content Einfluss aufs Ranking hat. Die Aussagen von Google sind dazu etwas vage. In der Ankündigung heißt es „Google will rank your content based on what you give for free“, also basierend darauf, wieviel Anteil des Contents in der freien Vorschau verfügbar ist und an welcher Stelle der Bezahlbanner kommt. Das bedeutet, dass nur der „unkodierte“ Teil des Inhalts für das Ranking herangezogen ist. Themenrelevanz und Keyword sollten also im oben Teil des Textes gewährleistet sein, aber das ist ja bei SEO-Texten heute meist schon der Fall. Für redaktionelle Inhalte gibt es hier in Zukunft also noch eine weitere Anforderung.

Das deutet darauf hin (Mutmaßung), dass die Verschlüsselung des unteren Teils des Contents serverseitig erfolgt und somit selbst der Google-Bot nur den freien Teil des Contents crawlen kann.

Wie geht es weiter?

Ob der Service in der nächsten Zeit nach Deutschland kommt, darf bezweifelt werden. Zum einen sind die großen Content-Anbieter hier noch tief im 20. Jahrhundert verhaftet (Leistungsschutzrecht), zum anderen wird Google wohl erstmal die Dienste im Heimatmarkt komplett ausreifen lassen wollen. Der Nutzer Kai regte in den Kommentaren im GoogleWatchBlog bereits an, dass man jetzt den +1 Button zu einer Funktion ähnlich Flattr erweitern könnte, eine sehr gute Idee wie ich finde. Auch eine Verknüpfung von Verkaufserfolg eines Artikels und AuthorRank wäre interessant.

Wer sich als Content-Anbieter für das Programm bewerben möchte, kann das hier tun.

Update vom 11. März 2013:

Am 11. März teilte Google mit, dass das Programm Google Wallet for Content nicht weiter geführt wird.