Google stampft das Authorship ein

 

Nun ist es offiziell: das Google Authorship wird komplett abgeschafft. Es wurde wohl auch zu selten benutzt und schaut man mal über die SEO/Social Media-Grenze hinweg, dann kann man das eigentlich so bestätigen. Wenn man nach Rechtsanwälten, Friseuren, nach Autos oder was auch sonst immer suchte: es waren nur weniger Google+ Profilbilder zu sehen, sprich es wurde nur sehr selten eingebaut. Vielleicht war Google damit ein wenig zu früh gestartet, vielleicht war es doch für manchen zu kompliziert, vielleicht lags an der anfänglich verhaltenen Nutzung von Google+.

Wie auch immer, ich empfinde es als schade. Allerdings gehe ich nicht davon aus, daß Google das auf sich beruhen lässt und weiter nach passenden Verknüpfungsmöglichkeiten sucht.

Google sagt zwar, daß der Wegfall der Profilbilder keine Auswirkungen auf die Klickraten hat, doch in einigen Bereichen dürfte das nicht stimmen, insbesondere da wo nur wenige Leute die Verknüpfung hergestellt hatten und dort somit als Vorreiter galten.

Im SEO / Social Media-Bereich, wo fast bei jedem der vorderen Ergebnisse das Bild zu sehen war, dürfte es tatsächlich keine signifikanten Auswirkungen haben.

Was Google sich als nächstes einfallen lassen wird, weiß wohl noch niemand, aber irgendwas wird kommen. Es hat jetzt übrigens weder Vor- noch Nachteile wenn man die gesetzte Verknüpfung bestehen lässt. Wer sich also den Aufwand der Entfernung sparen will, kann das tun. Wer weiß, vielleicht ist die irgendwann doch mal wieder zu etwas nützlich.

Ganz verschwinden die Google+ Profilbilder aber nicht aus den Serps. Bei eingeblendeten Google+ Suchergebnissen von eigenen Kontakten sind diese weiterhin sichtbar. Dazu hatte ich erst kürzlich hier ausführlich etwas geschrieben.

Mal wieder viel Bewegung im Suchmaschinenumfeld. Es bleibt weiter spannend.

URL-Strukturänderung und was man beachten sollte

 

Gerade habe ich aktuell ein bis vor kurzem sehr gut rankendes Projekt auf dem Tisch. Top Rankings bei allen wichtigen Begriffen, selbst bei hart umkämpften Singlekeywords. Und plötzlich rutscht ein Ranking nach dem anderen ins Nirvana.

Abstrafung durch Google? Fehlanzeige.

Dann kommt raus: Kunde hat die Seite komplett überarbeitet, zahlreiche Inhalte ausgetauscht und die neuen Inhalte auf neue Unterseiten gepackt, die alten Unterseiten gelöscht und dort wird jetzt ein 404 ausgegeben.

Nun, ca. vier Wochen nach der Umstellung sind große Teile der Rankings verschwunden, Tendenz steigend (oder sollte man eher fallend sagen?). Die alten Unterseiten wurden bei Google inzwischen zu großen Teilen deindexiert, die neuen ranken nicht, da ihnen auch die jahrelang aufgebauten Links fehlen.

Was tun in so einem Fall?

Die neuen Seiten werden eh nicht gefunden, daher habe ich folgendes Konstrukt entwickelt.

1. Die neue Seite komplett runter nehmen und die alte Seite wieder online stellen und auf schnelle Indexierung hoffen. Dann dürften auch die Rankings bald wiederkommen.

2. Zeitgleich ein Organigramm der alten Seite mit allen Unterseiten erstellen.

3. Aufbauend darauf prüfen welche Unterseiten erhalten bleiben sollen und welche wegfallen. Bei denen die wegfallen dann 301-Weiterleitungen auf thematisch passende neue Unterseiten per .htaccess definieren. Die neuen Unterseiten dann sauber in die alte Menüführung einarbeiten.

4. Neue Sitemap erstellen, hochladen und Google via Webmastertools bekanntgeben.

Ratsam ist es so viele alte URLs wie möglich beizubehalten und nur die Inhalte entsprechend anzupassen.

Eine reine 301-Weiterleitung jetzt noch nachträglich einfach einzurichten, bringt nicht viel, da die alten URLs bei Google schon mehrheitlich deindexiert wurden.

Und noch etwas ist zu empfehlen: wer mit einer SEO-Agentur zusammenarbeitet, sollte IMMER VOR solchen grundlegenden Änderungen mit der Agentur über das Thema sprechen und sich beraten lassen wie zu verfahren ist. Rankingabfall durch URL-Strukturänderungen lässt sich durchaus vermeiden, wenn man entsprechende Vorarbeiten leistet. Ansonsten endet das so wie in meinem oben beschriebenen Fall und kann nicht nur Rankings sondern auch Umsatz kosten.

Grundsätzlich ist der von mir ausgedachte Weg sicher nicht für jeden Fall anwendbar, hier jedoch schon. Es ist und bleibt eine Einzelfallgeschichte und jede Webseite hat andere Voraussetzungen, die es zu beachten gilt. Spätestens wenn man an einem solchen Punkt angekommen ist als Webseitenbetreiber ist es ratsam sich professionelle Hilfe ins Boot zu holen, auch wenn es finanziell schmerzhaft wird. Die Wiederbelebung einer solchen Webseite ist durchaus etwas, das entsprechendes Fachwissen erfordert.

Pinguin-Update und der 301-Fluch

 

Vor kurzem war ich mal wieder mit dem Abbau schädlicher Links bei einem Kundenprojekt beauftragt worden. Bei der Analyse des Projektes fiel mir auf, daß viele der als schädlich vermuteten Links ganz woanders hin verwiesen, nur nicht auf das eigentliche Kundenprojekt. Der Grund war schnell gefunden. Einige gedroppte Keyworddomains waren per 301 auf das Kundenprojekt geroutet worden und die darauf verweisenden schädlichen Links machten sich nun negativ bei dem Kundenprojekt bemerkbar. Das gleiche geschah mit Links, die auf nicht mehr existierende Subdomains des Kundenprojektes verwiesen. Die aufgelösten Subdomains routeten inzwischen auf die Startseite des Kundenprojektes.

Während ich anderer Stelle dazu riet, die Webmaster anzuschreiben und die entsprechenden Links entfernen zu lassen, kann man es sich hier unter Umständen auch einfacher machen und die 301-Weiterleitungen entfernen. Dadurch werden die schädlichen Links nicht mehr zur wichtigen Webseite durchgereicht. Im Zweifelsfall legt man sich eine weitere Domain an, die nicht mit der Hauptseite verlinkt ist, packt da eine Landingpage drauf und routet die entsprechenden Altdomains dahin weiter. Entweder beginnt die dann zu ranken oder halt nicht. Im Zweifelsfall kann man darüber wenigstens für ein paar Woche paar Abverkäufe machen, Newsletterabonnenten gewinnen oder ähnliches.

Der Arbeitsaufwand die 301-Weiterleitung zu ändern ist auf jeden Fall bedeutend geringer als unter Umständen eine dreistellige Zahl an Mails rauszuschicken und um Entfernung der Links zu bitten.

Natürlich kann man auch heute noch gedroppte Domains zum Linkaufbau nutzen und nicht immer muß es so negativ ausgehen wie hier in diesem Fall. Dennoch ist anzuraten die jeweilige Domain vor der 301-Weiterleitung erst einmal in Sachen eingehender Links zu analysieren, diese ggf. zu bereinigen oder die Domain am Anfang mit eigenen Inhalten zu versehen und deren Ranking zu beobachten. Einfach irgendwelche vermeintlich tollen Domains grabben und dann einfach so auf das eigene Projekt weiterrouten, sollte man jedenfalls nicht. Das kann dann zu solchen Ergebnissen wie im hier beschriebenen Beispiel führen.

Google: abgestraft und nun?

 

Google räumt mal wieder auf und das bedeutet, daß einige Webmaster in den Webmastertools entsprechende Meldungen über unnatürliche Links vorfinden. Dazu der Hinweis, daß dies nicht immer einen Rankingverlust der Webseite bedeutet, weil auch Google inzwischen gelernt hat, daß der Webmaster nicht immer für jeden gesetzten Link die Verantwortung hat.

Dennoch sollten betroffene Webmaster diese Mails nicht auf sich beruhen lassen.

Was ist zu tun wenn man eine solche manuelle Maßnahme von Google bekommen hat?

1. Ruhe bewahren. Jetzt ist es eh schon passiert und irgendwelche Hektik hilft hier niemandem wirklich weiter.

2. Mal alle vorhandenen Mails, Excellisten usw. zusammensuchen und sich eine Liste der gesetzten Links machen, die man früher mal gemietet, gekauft, getauscht wasauchimmer hat.

3. Sofern keine ausreichenden Unterlagen vorhanden sind, sollte man ggf. etwas Geld in die Hand nehmen und mit entsprechenden Tools die Linkstruktur analysieren. Dies macht aber auch Sinn, wenn man zwar seine Links alle aufgezeichnet hat, aber nicht weiß welche davon nun eventuell schädlich sind.

4. Jetzt geht es ans Eingemachte. Die als vermutlich schädlich lokalisierten Links sollte man entsprechend versuchen zu entfernen. Sofern man etwaige Zugangsdaten zu den Webseiten hat, kann man das eventuell selbst machen, ansonsten sollte man eine freundliche Mail an den betreffenden Webmaster formulieren und sich einen Wiedervorlagetermin (ca. 1-2 Wochen) setzen und prüfen ob der Link entfernt wurde. Ansonsten ggf. nochmal nachhaken bei dem jeweiligen Webmaster.

5. Alle vermeintlich schädlichen Links weg? Schön, dann kann man in den Google Webmastertools unter „Manuelle Maßnahmen“ einen Antrag auf nochmalige Überprüfung stellen. Im Normalfall findet man dann wenige Tage später in den Webmastertools eine neue Nachricht vor. Entweder wurde die manuelle Maßnahme dann aufgehoben und man kann sich wieder etwas entspannter zurücklehnen oder aber man muß noch weitere Links entfernen.

6. Es gibt übrigens nicht nur Abstrafungen wegen unnatürlicher Links. Auch Abstrafungen wegen Content der nicht wirklich sinnvoll ist, gab es bereits. Da hilft dann alles nichts, da muß man sich dann dran machen die Inhalte der betreffenden Webseite komplett zu überarbeiten, ggf. auch verbunden mit einem Relaunch. Selbst habe ich das bei einer Seite erlebt, die nach dem Relaunch und den neuen Inhalten plötzlich wieder bedeutend bessere (wenn auch noch nicht zu 100 % optimale) Rankings ausweist, nachdem sie mehrere Jahre faktisch tief im Keller vor sich hindümpelte. Auch ein Zeichen, daß man z.B. jahrelang geparkte Domains wieder zum Ranken bekommen kann.

Wem die Analyse und Entfernung der Links zu viel Arbeit oder wem dafür die Zeit fehlt, der kann sowas natürlich auch gerne auslagern. Ob man es selbst macht oder dafür einen Dienstleister beauftragt, auf jeden Fall sollte man ein paar Wochen Geduld mitbringen.

Und noch etwas: faktisch jede SEO-Agentur hat solche Leichen im Keller. Vieles von dem was vor 2-3 Jahren absolut nicht schadete, wird jetzt von Google negativ gewertet. Da kann man lang und breit drüber diskutieren, es ist aber nun mal so.

Indexierung von Webseiten durch Google beschleunigen

 

Man kennt das: die Webseite bekam einen kompletten Relaunch oder man hat einen topaktuellen Blogbeitrag verfasst und möchte, daß der so schnell wie möglich bei Google gefunden wird.

Google hat dazu selbst ein Hilfsmittel im Angebot, das es bereits seit längerem gibt, dennoch viele bisher noch nicht nutzen. Zu finden ist das ganze in den Google Webmastertools.

Links in der Sidebar findet mal den Menüpunkt „Crawling“. Dort im Untermenü ist der Menüpunkt „Abruf wie durch Google“ zu finden.

Google Webmastertools - Abruf wie durch Google

Hier lässt sich ganz bequem bei der Indexierung nachhelfen. In dem Feld auf dem Screenshot entweder die URL der Unterseite eintragen oder freilassen, wenn die Startseite indexiert werden soll.

Google Webmastertools - Abruf wie durch Google - Eingabefeld

Konnte der Robot die Seite abrufen, erhält man folgendes Ergebnis angezeigt.

Google Webmastertools - Abruf wie durch Google - Ergebnisfeld

Nun kann man auf „Index senden“ klicken und kann dann noch auswählen ob man nur die angegebene Seite oder alle von dieser Seite aus verlinkten Unterseiten neu an den Index senden soll.

Macht man das z.B. mit einem nagelneuen Blogbeitrag und sucht den unmittelbar danach bei Google, wird man ihn bereits im Index vorfinden.

Das ist übrigens auch ganz interessant, wenn es dringende Änderungen an einer Webseite gab (Eigentümerwechsel, Änderungen aus rechtlichen Gründe usw.). So kann man sicherstellen, daß die Seiten nicht nur schnell indexiert, sondern auch der Cache schnell aktualisiert wird. Auch bei Webseiten wo sich sonst sehr wenig bis gar nichts über längere Zeit ändert und wo aus diesem Grund der Robot in größeren Abständen nur noch vorbeikommt, kann es sinnvoll sein diese Methode anzuwenden um überarbeitete Inhalte neu indexieren zu lassen. Newsseiten, die eh täglich zig neue Beiträge raushauenm, werden das Problem nicht haben, denn sie werden vom Googlebot eh stetig besucht.