Category Archives: SEO

In den letzten 2 Jahren ist ja von vielen Leuten über die Penalty bei www.finanzen.de gesprochen worden. Manche haben das Problem gut analysiert, manche nur oberflächlich gestreift oder vollkommen verfehlt. Wir vom finanzen.de-Team haben uns lieber darauf konzentriert, an den Problemen zu arbeiten. Mit dem Penguin 2.1 konnten wir – wenn alle Indizien stimmen – nun endlich die Penalty hinter uns lassen.

Sind rein textliche Erwähnungen von URLs (ohne href) nun Backlinks für Google oder nicht? Das war mir lange unklar. In den Webmastertools habe ich heute einen (recht alten) Link entdeckt, der auf der „verlinkenden“ Seite aber nur als Text-Erwähnung vorhanden ist.

Am 13. Februar fand in Leipzig ein sehr spannendes Treffen von Experten aus dem Bereich SEO, SEA und Online-Recht statt. Organisiert hat das Ganze Peter Hense von der Rechtsanwaltskanzlei Spirit Legal. Der Tagesworkshop fand im Steigenberger Hotel direkt im Stadtzentrum statt und war sehr gut organisiert. Aufgrund der guten Beziehungen der Kanzlei in die Hotel- und Online-Tourismus-Szene waren viele Vertreter aus diesem Themengebiet vertreten.

Ganz viele Infos zum disavow Tool auf einmal aus dem Hangout mit Google’s John Mueller: Warum funktioniert der Upload manchmal nicht? Wie schnell werden die gemeldeten Links gecrawelt ? Gibt es schon erfolgreiche Penalty-Liftings? Und das Highlight: Wieviel % der Spam-Links muss man wirklich manuell abbauen?

Stolperfalle: Unbedingt Zeichensatz beachten!

Am Montag haben wir eine disavow-Datei in den Webmaster Tools hochgeladen und konnten nicht wirklich feststellen, ob diese jetzt erfolgreich verarbeitet wurde oder nicht. Nach dem Upload-Dialog kam zwar das „es wird geladen“-Zeichen (der rotierende Kreis), danach fand man sich aber einfach im Upload-Dialog wieder. Es wurde keine Datei als hochgeladen angezeigt, es kam weder eine Erfolgsbestätigung noch eine Fehlermeldung. Und die Sprache der Webmaster-Tools sprang von deutsch auf englisch um. Wer auch dieses Phänomen hat, ist einem Fehler in der Verarbeitung aufgesessen.

Im heutigen Webmaster Hangout mit John Mueller (unbedingt circeln!) konnten wir endlich rausfinden, woran es lag. Wir hatten die Datei im ANSI-Format hochgeladen. Sie muss aber unbedingt im UTF-8-Format hochgeladen werden. So wie die Ergebnisse unserer Tests zeigen ist das kein Problem, solange keine Umlaute in der Datei vorkommen. In den USA wird der Fehler daher wahrscheinlich nicht auffallen. Aber die Kombination Umlaute+ANSI führt zu einem Verarbeitungsfehler ohne Rückmeldung. Die Umlaute können dabei sowohl in den Domains als auch im Beschreibungstext vorkommen, beides führt zu Fehlern.

Hier sollte Google dringend nachbessern und zumindest eine richtige Fehlermeldung ausgeben. Außerdem sollte der Hinweis auf das UTF-8-Format prominent platziert werden. Wir haben in diesem Fall z. B. mit Notepad gearbeitet und der speichert standardmässig im ANSI-Format.

Ein erfolgreicher Upload sieht so aus, die hochgeladene Datei wird dann angezeigt und steht zum Download bereit:

Disavow beschleunigt nicht das Crawling der zu entwertenden Links

Aus dem Hangout konnte ich auch einige andere sehr interessante Erkenntnisse mitnehmen. Ich fragte John, ob das Hochladen der Liste einen Crawlingprozess auslöst. Das ist nach seiner Auskunft nicht der Fall. Vielmehr werden die entsprechenden Links erst dann entwertet, wenn sie im ganz normalen Crawling-Prozess an der Reihe wären. Das kann unter Umständen Monate dauern, weil z. B. alte Foren-Postings etc. nur sehr selten neu gecrawlt werden. Wir sehen in den Backlinklisten der Webmastertools auch noch Links, die schon vor 2 oder 3 Monaten entfernt wurden, aber noch nicht neu gecrawlt sind. Da muss man laut John abwarten, es gibt keine Methode das recrawling zu beschleunigen.

Er sagte aber auch, dass man sich darum nicht so viele Sorgen machen braucht. Soweit ich es verstanden haben, korrespondiert die Crawling-Frequenz einer Seite mit der Relevanz des Links für das algorhitmische Ranking. Das heißt, solche Links zahlen fast gar nicht aufs Ranking, aber auch fast gar nicht auf Penalties ein.

Disavow Tool Vorabtest mit ausgewählten Webmastern

Gestern konnte man ja schon den ersten Erfahrungsbericht lesen, nach dem disavow wirklich mehrere Domains aus der Penalty geholt hat. Was mich gewundert hat, ist dass dort auf wochenlange Erfahrungen verwiesen wird, das Tool aber erst seit 10 Tagen am Start ist. Laut John gab es Vorabtests des disavow-Tools mit ausgewählten Webmastern. Daher scheint der Testbericht valide. Die Aussage dort war: 10 Tage nach dem Hochladen bzw. dem anschliessenden Reconsideration Request haben sich die Rankings erholt.

Kann man jetzt einfach alle Links entwerten ohne selber abbauen zu müssen?

Das ist die große Frage, die ich mir gestellt habe, seit ich vom disavow Tool gehört habe. Google sollte eigentlich kein Interesse daran haben, ein Tool bereit zustellen, mit dem man schnell alle Spam-Links entwertet und so aus der Penalty rauskommt. Die Folge wäre katastrophal: Webmaster würden solange Spamlinks aufbauen, bis sie in die Penalty rutschen und könnten innerhalb weniger Tage aus der Penalty raus sein, ohne sich wirklich um Linkabbau bemühen zu müssen. Und dann sofort wieder Link-Spam betreiben? Das kann Google nicht wollen. Sie wollen Webmaster leiden lassen, die massiv gegen die Richtlinien verstossen haben. Damit man seine Lektion lernt und das nicht sofort wieder macht.

Meine eigentliche Frage war: „Wie oft muss man Webmaster kontaktiert haben, bevor man den Link zur Entwertung einreicht, weil der Webmaster ihn einfach nicht ausbauen will oder kann. Beziehungsweise, wieviel Prozent der Spam-Links sollte man schon abgebaut haben, bevor man disavow nutzen darf (aus Google-Sicht).“

Laut John muss hier zwischen algorithmischen Abwertungen und manuellen Penalties unterschieden werden. Bei algorithmischen Strafen (Penguin) sollte eine Entwertung durch disavow zur Erholung der Rankings führen, egal wieviel Links vorher manuell abgebaut wurden. Gerade Penguin-Betroffene können also sofort disavow nutzen und müssen sich gar nicht mehr um manuellen Abbau Gedanken machen. Und das finde ich schon ziemlich krass und ein falsches Signal an Spammer.

Bei manuellen Penalties hingegeben möchte der Quality Rater natürlich schon sehen, dass man sich Mühe gegeben hat. Dort sollte man schon ordentlich manuell abgebaut haben, bevor man disavow nutzt und einen Reconsideration Request stellt. Einen Request muss man unbedingt stellen, disavow alleine nützt nichts.

Erfahrungsberichte?

Wir haben 3 Domains im Test und ich halte Euch auf dem Laufenden, wie es ausgeht. Habt Ihr schon konkrete Erfolge mit dem disavow-Tool?

Update vom 29.10.2012: Auf seo-united.de wurden einige sehr konkrete Aussagne von Matt Cutts zum disavow-Tool veröffentlicht.

Andre Weyher hat 5 Jahre bei Google gearbeitet, drei Jahre davon im Search Quality Team von Matt Cutts. Im Interview mit JamesNorquay.com erzählt er von seiner Zeit bei Google, über aktuelle SEO-Faktoren und sein neues Projekt zum Aufdecken von Webseiten-Netzwerken. Hier die wichtigsten Aussagen:

(Update vom 23.10. siehe unten)

Wie läuft die Spam-Beurteilung bei Google?

Bildquelle: Alexander Klaus / pixelio.de

Andre erklärt, dass jeder Spamfighter einen speziellen Themenbereich oder ein Marktsegment zugeteilt bekommt, dass er/sie überwacht. Das heißt, dass z. B. bei deutschen Versicherungs-Webseiten immer die gleichen Mitarbeiter verdächtige Seiten beurteilen und Penalties aussprechen werden. Wahrscheinlich landen dann auch Reconsideration Requests bei den gleichen Leuten. Das heißt für uns SEOs wirklich aufpassen, denn man kann nicht einfach viele Requests rausschickt und hofft, dass man mal bei irgendeinem Mitarbeiter durchkommt. Wahrscheinlich wird sich der Typ genau an Euch erinnern.

Außerdem erstellen die Spezialisten von Zeit zu Zeit auch Reports über das Spam-Niveau in ihrem jeweiligen Marktsegment. Damit kann das Quality Team dann wahrscheinlich priorisieren, in welchen Sektoren besonderer Handlungsbedarf besteht.

In seiner Zeit bei Google hat sich die Spam-Beurteilung einer Seite im Wesentlichen in 3 Bereiche gegliedert:

  1. OnPage-Spam (unsichtbarer Text, Keyword-Stuffing, etc.)
  2. Content-Qualität
  3. Backlinks

Wie werden Backlinks beurteilt?

Dazu gab es einige Details. Einerseits geht es natürlich um die Anzahl der Links, aber letztlich zählt die Qualität der Backlinks viel mehr als die Anzahl oder Linkpower. Gleich an zwei Stellen betont Andre „Relevance is the new PR“, also „Themenrelevanz ist der neue PageRank„. Neben der Themenrelevanz der verlinkenden Seiten ist auch deren Qualität wichtig. Hier berichtet er, dass Google verstehen möchte, ob eine Seite existiert, um eine gute Seite zu sein oder nur um Links zu erzeugen. Das zielt ganz klar auf Expired Domains, die ja als Linkpower-Hubs derzeit noch gut funktionieren.

Auch die Proportion zwischen „kommerziellen“ und „nicht-kommerziellen“ Anchor-Texten ist laut Andre wichtig. Das heißt auf gut Deutsch: In wieviel % der Anchortexte kommen Money-Keywords vor.

Hier also nichts Neues, sondern nochmal eine Bestätigung dessen, was Google schon eine ganze Weile sagt.

Ein paar konkrete Tipps zu den Backlinks gab es dann doch:

  • Alles, was man automatisiert oder mit großen Netzwerken tun kann, ist ein Risiko für Eure Seite.
    Das heißt Kommentarskripte, Expired Domain Linkpower Hubs, gekaufte Links, etc.
  • Backlinks müssen themenrelevant sein, um wirklich aufs Ranking einzuzahlen.
    (siehe oben)
  • Unterschätzt nicht Verzeichnisse und Kataloge.
    Diese wurden ja mehrfach totgesagt, doch ordentlich gepflegte Verzeichnisse sind immer noch eine gute Backlink-Quelle. Achtet auf einzigartige Beschreibungstexte.

Und auch OnPage Tipps:

  • Etwas verklausuliert sprach er über die Wichtigkeit, eine gute Domain zu wählen.
    Ich interpretiere das so, dass Keyword-Domains immer noch stark aufs Ranking einzahlen und – trotz des letzten Updates – das auch noch eine Weile tun werden.
  • Description, Title, H1/H2 und andere OnPage Faktoren werden oft vernachlässigt, weil sich alles auf die Linkgewinnung konzentriert.  Hier sollte man Energie investieren, wirklich gute Titel und Beschreibungen zu finden. Aber natürlich nicht übertreiben, wissen wir ja.
  • Übertreiben heißt z. B. „mehr als 2 kommerzielle Keywords im Titel“
    Das war mal eine ganz konkrete Aussage, die kann man gleich auf die OnPage-Checkliste übernehmen. Wahrscheinlich lässt sich dieser Ratschlag auch auf Description und H1 übertragen.

Dann gab es noch das Übliche zu hören über Qualität des Contents, man merkt dass er ein Padawan von Matt Cutts war.

Wie wichtig wird Social und Google+?

Sehr wichtig bis unverzichtbar. Die Suchergebnisse von Google werden noch deutlich lokaler werden (siehe OMCap Recap). Statt landesweit das gleiche Ergebnis anzuzeigen, werden je nach Region unterschiedliche Seiten ranken. Soziale Signale werden dabei ein wichtiger Rankingfaktor sein. Die Integration von Google Places in Google+ zeigt das ja schon deutlich.

Auch die Wichtigkeit von Google+ wurde nochmals betont, Google wird dieses Thema nach Andres Einschätzung nicht so schnell aufgeben. Ein Hinweis, dass es derzeit auch noch nicht so läuft wie erhofft, aber trotzdem viel Energie investiert wird. Zum AuthorRank sagte er aber nichts.

Netzwerke erkennen

Dann sprach Andre noch über sein neues Projekt netcomber.com. Dabei geht es darum, Netzwerke von Webseiten der gleichen Inhaber zu erkennen. Dazu werden verschiedenste Techniken genutzt, unter anderem identische Affili-Codes oder Hosting-Informationen. Aber selbst ähnlicher „Coding-Style“, also die Art und Weise wie programmiert wurde, wird für diese Beurteilung herangezogen. NetComber will diese Informationen für Webmaster öffentlich machen. So kann man potentielle Linknetzwerke erkennen.

Dieses Thema fand ich interessant, denn hier wird natürlich KnowHow einfliessen, was bei Google gewonnen wurde. Ganz klar sagt er „Search engines always used this data in their fight against spam, checking the quality of a network, or even taking down an entire (spammy) owner cluster.“. Das heißt, zu verstehen, wie NetComber Netzwerke identifiziert, kann auch dabei helfen, eigene Netzwerke zu schützen oder halt zu vermeiden, aus Versehen solche Netzwerke in der eigenen Backlinkstruktur zu haben. Je nach bevorzugtem SEO-Stil. :-)

Weitere Infos

 

Ergänzung vom 23.10.2012

Ich habe in einem Artikel auf searchengineland.com, der auch über das Interview berichtet, einen Kommentar von Google zu den Aussagen von Andre Weyher entdeckt. Diesen möchte ich der Vollständigkeit halber hier mit aufnehmen:

He didn’t work on webspam engineering or algorithms at Google. Given that we saw several incorrect statements in even this quick interview, we’d recommend sticking to trustworthy sources for accurate info on how Google works.

Die Antwort darauf von Andre Weyher (gekürzt):

[…]
No one within Google knows the entire picture apart from maybe 1 engineer, 1 level under Larry Page.
[…]
By reviewing literally thousands of cases of what NOT to do, you learn what the limits are and from what exact point Google starts seeing something as spammy.
[…]
As far as elements like commercial keywords in titles are concerned, I don’t think anyone would doubt that Google doesn’t like on-page over optimization. You can give it another name but it comes down to the same thing: try to make your page only search engine focused is not something Google likes.
It’s hard for me to comment about any incorrect statements without Google describing which were incorrect.

2 Möglichkeiten: Entweder da war wirklich viel Blödsinn dabei (was ich nicht glaube) oder jemand bei Google ist sauer, dass Interna ausgeplaudert wurden.

4 Worte. Wenn ich als Marketing Leiter bei finanzen.de die 4 Worte „Google“, „Versicherung“, „Vergleichsportal“ und „Deutschland“ in einem Satz höre, werde ich natürlich hellhörig. Was ist passiert? Laut einem Bericht der Financial Times Deutschland arbeitet Google gerade daran, ein eigenes Vergleichsportal für KFZ-Versicherungen aufzubauen. Vorbild ist der britische Markt.

Wie auf ftd.de gestern abend zu lesen war (seo-united berichtet auch), verhandelt Google derzeit angeblich mit mehreren Versicherungsgesellschaften über Provisionen für die Vermittlung von Neukunden und Wechslern in der KFZ-Versicherung. Eine offizielle Stellungnahme gibt es aber noch nicht. Im Thema KFZ-Versicherung liegt eine Menge Geld, Check24 ist letztlich damit groß geworden und bestreitet auch heute noch den größten Teil seiner Einnahmen aus dem KFZ-Bereich. Dieses Jahr werden vermutlich über 1 Million Versicherungsverträge von den Online-Portalen erzeugt. Die CPCs erreichen zur Hauptsaison regelmässig unvorstellbare 15 Euro pro Klick. Die Abschlusspreise liegen bei 60 bis 100 €, je nach Marktmacht.

Aus meiner Erfahrung kann ich sagen, dass gerade die KFZ-Versicherung ein Produkt ist, was sich wunderbar für einen reinen Online-Vertrieb eignet. Zwar sind die Rechner alle etwas umständlich, was vor allem an den zig verschiedenen Fahrzeugtypen und den ganzen Sonderregelungen liegt. Die Tariflandschaft der Versicherer ist sehr breit und man kann durchaus mal mehrere Hundert Euro Preisunterschied bei gleichen Konditionen feststellen. Durch die jährliche Kündigungsmöglichkeit bindet man sich hier auch nicht lange an ein Produkt, im Gegensatz zum z. B. einer Krankenversicherung oder Lebensversicherung. Die verschiedenen Anbieter und deren Produkte sind daher für den Kunden gefühlt vergleichbar. Und Unfallfreiheits-Rabatte kann man beim Wechsel mitnehmen. Darum ist die Wechselbereitschaft der Kunden groß, wenn man einige Euro Jahresprämie sparen kann. Und das heißt, gerade in der Hauptsaison: enorm hohe Conversionrates im Sale-Bereich.

Google verwertet eigenen Traffic

Google geht hier konsequent einen Weg weiter, den sie schon vor einiger Zeit eingeschlagen haben und der den meisten SEOs auch immer deutlicher wird: Vom reinen Traffic-Provider (kostenlos über SEO, Google News, etc.; kostenpflichtig über SEA, Produktsuche, etc.) wird man immer mehr zum Traffic-Verwerter. Ganz klassische BWL: Vertikale Integration in der Wertschöpfungskette. (Wikipedia)

In Großbritannien kann man bereits sehen, wie das läuft. Eine Suche auf google.co.uk nach „car insurance“ bringt folgendes Ergebnis:

Suchergebnis „car insurance“ auf google.co.uk, Spracheinstellung englisch, Location: London. Quelle: google.co.uk

 

Google setzt seinen eigenen Service hier vor alle organischen Ergebnisse. Zwar als „Sponsored“ gekennzeichnet, aber dafür mit einen schönen Call-to-Action-Button „Start a new quote“. Die nachfolgende Angebotsseite ist kein externes Portal, sondern Teil von Google. Hier setzt sich ein Trend fort, wie er zuletzt auf der OMCap von Johannes Beus (sistrix) und Michael Fritz (searchmetrics) berichtet wurde: Google hält den User auf der eigenen Plattform. Der Screen unten zeigt ja schön, dass man schon die Navigation für weitere Vergleichs-Themen vorbereitet hat.

Der Vergleich selber ist mal wieder typisch Google: So einfach und nützlich wie möglich. Im UK ist es möglich, über das Kennzeichen den Fahrzeugtyp in einer zentralen Datenbank abzufragen (die Wichtigkeit der Bereitstellung von öffentlich zugänglichen, zentralen Datenbanken als Infrastrukturprojekt der Zukunft hat unsere Bundesregierung leider noch nicht begriffen). Daher brauch man nicht umständlich die Nummern aus dem Fahrzeugbrief raussuchen, sondern kann einfach sein Kennzeichen eingeben und schon ist der Fahrzeugtyp ausgewählt und man kann seine persönlichen Details eingeben. Wer spielen möchte, kann ja mal das Kennzeichen W238WKX ausprobieren.

Der User verlässt die Google-Plattform nicht mehr. Quelle: google.co.uk

 

Kommt das Portal noch im November?

Überrascht hat mich der Termin. Es gibt im Prinzip nur einen relevanten Monat im KFZ-Versicherungsbereich, und das ist der November. Im November machen die Online-Portale den Großteil ihres Jahresumsatzes. Grund dafür ist der hohe Anteil an Wechslern, die jedes Jahr wieder nach der günstigen Versicherung suchen. Die Kündigungsfrist für KFZ-Policen ist der 30. November, von daher schauen die meisten Kunden auch im November nach einem neuen Anbieter. Für uns als Versicherungsportal bringt das (neben Ladezeitproblemen) auch ein nützliches Nebengeschäft: Bei dieser Gelegenheit vergleichen viele Kunden auch noch Ihre Hausrat- oder Haftpflichtversicherung und suchen sich gegebenenfalls auch da einen neuen Anbieter.

Wenn Google jetzt im Oktober mit den Versicherungsgesellschaften spricht, dann wird es spannend. Wollen Sie das neue Portal noch in diesem November ausrollen? Die Technologie ist ja da (siehe UK), man braucht nur die Vertragsabwicklung und Provisionierung klären.

Die Wettbewerbssituation ist überschaubar. Letzlich gibt es nur 3 bis 4 wirklich ernstzunehmede KFZ-Vergleichsrechner, die in verschiedenen Varianten und Layouts auf den großen Vergleichsportalen und den vielen kleinen Affiliate-Seiten zu finden sind. Die beiden wichtigsten sind Aspect online (transparo) und Check24. So richtig perfekt ist keiner dieser Rechner. Hier könnte Google mit einem technisch sehr gut umgesetzten Rechner sofort relevant den Markt aufrollen.

Und Traffic ist nicht das Problem, den kann sich Google ja vom einen auf den anderen Tag zuschalten. :-)

Und nun?

Für die großen Vergleichsportale wird es hart, denn das Thema KFZ wird ja nur der Anfang sein. Check24 kann noch ne Weile von seiner Marke leben (musste aber seine Marketing-Ausgaben auch schon in letzter Zeit deutlich erhöhen), Aspect online wird es da schon härter treffen, weil transparo als Marke noch nicht etabliert ist. Beide Anbieter haben ein starkes Affiliate-Netzwerk und diese Affiliates leben von SEO-Traffic. Da wird vieles wegbrechen. Alle anderen Anbieter von KFZ-Rechnern werden, wenn Google erstmal am Markt ist, von selbigem verschwinden.

Den SEO-Traffic in diesem Bereich kann man (außer im Longtail) bald vergessen, da wird nur noch SEA-Traffic relevant sein. Portale wie finanzen.de, die ein eigenes Hauptprodukt haben und KFZ eher als Randthema mitnehmen (wir nutzen den Aspect online Rechner) müssen mehr und mehr lernen, mit kostenpflichtigen Traffic klar zukommen. Im KFZ-Bereich ist das ohne eigene Verwertungslösung schlichtweg nicht möglich (die Margen bei Einsatz von Fremd-Rechnern sind zu gering). Von daher bleibt dieses Feld wohl in Zukunft Check, transparo und den großen Versicherungsgesellschaften überlassen (und Google natürlich).

Wir konzentrieren uns auf die Themen, die wir gut können und wo wir ein exzellentes Produkt haben.

Google präsentiert eine Bezahl-Möglichkeit für Content, die auf den ersten Blick sowohl einfach einsetzbar als auch sehr durchdacht scheint. Sogar eine „Geld-zurück-Garantie“ für die Benutzer gibt es. Was müssen SEOs jetzt beachten?

In einem Artikel auf finanzen.de hatte ich bereits beschrieben, wie Google einige seiner vielen Dienste nutzt, um auch im eCommerce kräftig mitzuverdienen. Vom Bezahldienst „Google Wallet“ gibt es jetzt eine Version speziell für Content. Mit diesem, derzeit nur in den USA verfügbaren, Service können Anbieter von Content einzelne Artikel für einen Preis zwischen 25 und 99 US-Cent anbieten. Bereits am Dienstag hatte 9to5Google vorab darüber berichtet, am Mittwoch gab es die offizielle Ankündigung von Google, die auch vom GoogleWatchBlog aufgegriffen wurde. Auch Golem berichtete.

Einbindung und einfache Nutzbarkeit

Der Betreiber muss dafür nur einen Code von Google einbauen, Details zum Code waren aber vorerst nicht zu finden. Dieser Code sorgt dafür, dass auf der Seite der obere Teil frei lesbar ist, ab einer bestimmten Stelle (die vom Betreiber frei definiert werden kann) aber ein Banner erscheint, der zum Bezahlen auffordert. Der Text unterhalb des Banners ist „grau übermalt“ und somit nicht lesbar. Auch im Quelltext ist der Text nicht auffindbar, so dass sich der Schutz nicht so einfach umgehen lässt. Hier ein Live-Beispiel. Selbst Bilder codiert das Google-Skript, wie sich hier sehen lässt.

ein Beispiel für die Google-Wallet-Einbindung, Quelle: content.dk.com/knitting

Einfaches Bezahlen und Geld-Zurück-Funktion

Der Kauf ist super einfach. Ist man bei Google eingeloggt (und bei Wallet registriert), dann erscheinen im Banner der eigene Google-Benutzername und der Bezahlen-Button sowie ein Hinweis auf die Geld-Zurück-Funktion. Ein einziger Klick auf den Kauf-Button genügt und die Inhalte werden geladen (es erscheint „your purchase is in progress“ und dann später „you own this content“, gefolgt von einem Link zu allen eigenen gekauften Inhalten).

Ist man noch nicht für Wallet registriert, so öffnet sich beim Klick auf den Kauf-Button ein Popup in dem man seine Kreditkarten-Daten eingeben muss. Auch deutsche User können diese Option nutzen. Dann noch kurz die „Terms & Conditions“ bestätigt und schon wird der Inhalt freigeschalten.

Ein besonderer Vorteil ist die Geld-Zurück-Funktion („Instant Refund“). Innerhalb von 30 Minuten nach Kauf kann ein User mit einem einzigen Klick seinen Kauf rückgängig machen. Der Inhalt wird wieder kodiert, man kann optional Gründe angeben. Schön ist auch, dass Google einen Counter anzeigt, wie lange man noch Zeit für den Refund hat.

die Geld-Erstattungs-Funktion von Google Wallet, Quelle: Google

Ich finde diese Möglichkeit deshalb so gut, weil sie die Akzeptanz von MicroPayments für Inhalte stärken wird. Wenn User wissen, dass sie gefahrlos in einen Artikel reinschnuppern können, dann werden wesentlich mehr User bereit sein, für einen Artikel zu bezahlen. Natürlich wird es ein paar Leute gaben, die versuchen sich kostenlos Inhalte zu erschleichen. Aber Google hat dieses Problem schon jetzt erkannt und angekündigt, man werde prüfen, ob bestimmte User besonders auffällig bei der Anzahl der Stornos werden.

Ranking von kodierten Inhalten

Interessant für SEOs ist natürlich, ob das Einsetzen von Wallet for Content Einfluss aufs Ranking hat. Die Aussagen von Google sind dazu etwas vage. In der Ankündigung heißt es „Google will rank your content based on what you give for free“, also basierend darauf, wieviel Anteil des Contents in der freien Vorschau verfügbar ist und an welcher Stelle der Bezahlbanner kommt. Das bedeutet, dass nur der „unkodierte“ Teil des Inhalts für das Ranking herangezogen ist. Themenrelevanz und Keyword sollten also im oben Teil des Textes gewährleistet sein, aber das ist ja bei SEO-Texten heute meist schon der Fall. Für redaktionelle Inhalte gibt es hier in Zukunft also noch eine weitere Anforderung.

Das deutet darauf hin (Mutmaßung), dass die Verschlüsselung des unteren Teils des Contents serverseitig erfolgt und somit selbst der Google-Bot nur den freien Teil des Contents crawlen kann.

Wie geht es weiter?

Ob der Service in der nächsten Zeit nach Deutschland kommt, darf bezweifelt werden. Zum einen sind die großen Content-Anbieter hier noch tief im 20. Jahrhundert verhaftet (Leistungsschutzrecht), zum anderen wird Google wohl erstmal die Dienste im Heimatmarkt komplett ausreifen lassen wollen. Der Nutzer Kai regte in den Kommentaren im GoogleWatchBlog bereits an, dass man jetzt den +1 Button zu einer Funktion ähnlich Flattr erweitern könnte, eine sehr gute Idee wie ich finde. Auch eine Verknüpfung von Verkaufserfolg eines Artikels und AuthorRank wäre interessant.

Wer sich als Content-Anbieter für das Programm bewerben möchte, kann das hier tun.

Update vom 11. März 2013:

Am 11. März teilte Google mit, dass das Programm Google Wallet for Content nicht weiter geführt wird.

Wir kann ein Autor das Ranking verbessern? Nachdem wir uns mit den technischen und konzeptionellen Vorbereitungen und dem Aufbau von Beziehungen beschäftigt haben, geht es hier um das, was ich für den „Linktausch der Zukunft“ halte: Der Austausch von Gastbeiträgen zur Steigerung der Relevanz von Autoren-Profilen. 

Im ersten Teil dieses Beitrages ging es vor allem um die strukturellen Vorbereitungen, die man jetzt ergreifen sollte, um schlagkräftige Autoren-Profile aufzubauen (Punkte 1 bis 4). Dieser Teil befasst sich mit der Interaktion des Autoren-Profils mit anderen auf Google+, die besonders wichtig für den AuthorRank ist (Punkte 5 bis 8).

Das Thema Author-Tag wird immer mehr diskutiert und es wird klar: wer in Zukunft erfolgreich SEO machen möchte, braucht starke Autoren-Profile. Auch wenn der Einfluss aufs Ranking noch gering ist, sollte man jetzt anfangen, Autoren-Profile aufzubauen.

Mike Arnesen hat es in seinem Artikel sehr treffend formuliert:

„How long do we have before we need to start worrying about building our own AuthorRank or working on it for our clients? Stop thinking like that. It doesn’t matter when it’s coming because once it does, it’ll be too late.“