Google indexiert Blogs falsch: Mir ist heute etwas erstaunliches aufgefallen. Google indexiert derzeit einige Blogs nicht richtig. Davon sind aber längst nicht allen Blogs betroffen. Auffälig ist jedoch, dass vor allem Blogs betroffen sind, die über ein breites Themenspektrum verfügen. Zumindest habe ich nur bei diesen Blogs den “Fehler” festgestellt.
Das Problem äußert sich auf folgende Weise: Ich habe jeweils die aktuellesten Artikel der von mir getesteten Blog genommen und versucht diesen mit Angabe des Blog Namen bei Google zu finden, dazu habe ich den Titel 1 zu 1 kopiert und danach gesucht. Das Ergebnis war erstaunlich. Google brachte jedesmal einen anderen Post, der aber über die Description des gesuchten verfügte.
Folgende Blogs habe ich getestet: Bulmis.de, Tutsi.de, Alterfalter.de, Meinungs-Blog.de
Wie schön zu sehen ist, wurden alle getesteten Artikel nicht richtig indexiert. Die Blogs an sich haben auch keine größeren Gemeinsamkeiten. Alle nutzen unterschiedliche Plugins und stehen auch sonst in keiner größeren Verbindung.
Anscheinend gibt es bei diesem Effekt aber auch wieder Unterschiede, so sind bei Pierre-Markuse.de zum Beispiel Artikel aus dem Bereich Technik bei der Kategorie News bietet sich dann wieder das oben beschrieben Bild.
Ehrlich gesagt kann ich mir darauf keinen Reim machen. Ich weiß nicht, ob Google beginnt Blogs in Kategorien einzuteilen. Das würde aber das Ende alle Mischblogs bedeuten und kann ich mir wirklich nicht vorstellen. Wahrscheinlich hängt diese Geschichte auch mit dem Update zusammen, das Google und vor allem viele Webmaster schon den ganzen Sommer in Aufregung versetzt.
Ich werde die sache sicherlich weiter verfolgen, mal sehen, wie lange dieser Zustand anhält. Falls ihr auch ähnliches Beobachtet habt oder Google völlig normal auf euren Blog reagiert, lasst doch einen Kommentar da, dass hilft sicherlich weiter.
]]>Dofollow oder Nofollow Blog – Das ist hier die Frage?: In diesem Artikel möchte ich mich einem Thema widmen, dass jeden Blogger in der ein oder anderen Weise mal tangiert. Es geht um die leidige Diskussion, ob man seinen Blog – vor allem in den Kommentaren – auf Nofollow oder auf Dofollow setzt. Für alle, die nichts mit dem Nofollow-Attribut anzufangen wissen, hier nochmal eine ganz kurze Erklärung: Das Nofollow-Attribut sagt einer Suchmaschine im Prinzip, dass sie den damit versehenen Link nicht beachten soll. Eingeführt wurde es vor über 5 Jahren. Damals als Initiative von Google um Spam effektiv zu entgegnen und diesen einzudämmen, mittlerweile haben alle anderen großen Suchmaschinen das Attribut übernommen.
Bei WordPress sind die Kommentare standardmäßig auf Nofollow gestellt, sie nützen dem Kommentierenden also nichts. Eine Einstellung, die wie ich finde, noch aus einer Zeit stammt, als es noch keine effektiven Maßnahmen gegen Spam gab, heute erledigt zum Beispiel das Akismet-Plugin diese Aufgabe mehr als zuverlässig. Aktuellere WordPress-Versionen bringen dieses Plugin gleich mit. Eigentlich gibt es also keinen Grund mehr für einen Blogger, seinen Kommentarbereich mit dem Nofollow-Attribut versehen zu lassen. Dennoch sieht man es auf sehr vielen Blogs. Aber warum ist das so? Eine logische Antwort auf diese Frage weiß ich auch nicht, ich kann höchsten zwei Lösungsansätze liefern. Zum einen arbeiten viele Blogs aus Unwissenheit mit den Nofollow-Attribut, diese Blogger wissen einfach nicht, was es mit dem Attribut auf sich hat und wie sie es entfernen können, dabei gibt es auch für diesen Zweck ein einfaches Plugin, bei dem man nichts anderes machen muss, als es zu installieren und zu aktivieren.
Die zweite Gruppe ist meiner Meinung nach in der Unterzahl, was ihr Verhalten aber nicht besser macht. Diese Blogger setzen mit voller Absicht Nofollow ein, weil sie irgendwelchen windigen SEO-Mythen nachhängen, die da besagen, dass Google es nicht mag, wenn man seine Kommentare ohne Nofollow hat oder sie wollen einfach nichts von ihrem Linkjuice abgeben. Diese Blogger übersehen aber einen wichtigen Fakt. Die Blogosphäre lebt von ihrer Verlinkung, wer seine Linkpower aber nicht weiter gibt wirkt als Fremdkörper und wird über kurz oder lang abgestoßen. Weniger bildlich gesprochen bedeutet dies einfach, dass diese Blogger weniger Links aus anderen Blogs bekommen und es deshalb schwerer haben bei Google zu ranken und in Feed-Readern zu bleiben. Dazu sollte man sich einfach mal einige Toplisten ansehen, die meisten Blogs, die in diesen oben auftauchen und kein reiner Promi- oder Schnäppchen-Blog sind, sind nofollow-frei.
Doch was lernen wir nun daraus? Der eigenen Blog sollte nofollow-frei sein, wenn man in der Blogosphäre wahrgenommen werden möchte. Außerdem kommt einem diese Einstellung auch persönlich zu Gute, man wird nämlich feststellen, dass die Kommentarzahlen in die Höhe gehen werden und meist sind diese Kommentare auch noch sinnvoll und weiterführend. Natürlich gibt es auch hier wieder schwarze Schafe, die irgendwelche Deeplinks auf Unterseiten setzen wollen, aber diese werden von Akismet normalerweise auch abgefangen und landen im Müll.
Seid also so fair und macht euren Blog nofollow-frei!!!
]]>Google fluxt und erster Nr. 1 bei Bing: So, heute habe ich mich entschlossen mal eine kleine Wasserstandsmeldung abzugeben, wie gut dieser Blog in verschiedenen Suchmaschinen sichtbar ist. Entschlossen habe ich mich dazu, weil gestern aus SEO-Sicht ein recht spannender und aufregender Tag war. Beginnen wir also mit Google: Google hatte gestern wohl ein wenig Schluckauf, wie die letzten 6 Wochen auch schon, jedenfalls fulxte die Nr. 1 Suchmaschine ganz gewaltig. So kam es dann, dass ich innerhalb von wenigen Minuten völlig andere Serps zu ein und dem selben Key bekam, bei der einen Variante lag ich auf Position 3 mit meinem Key und bei der anderen war ich nicht auf den ersten 4 Seiten zu finden. Zum Glück hat sich Google heute etwas beruhigt und sich dabei für die für mich günstigere Variante entschieden. Viel mehr gibt es nach 3 Wochen Blog noch nicht zu Google zu sagen. Vielleicht ist aber noch interessant, dass meine Posts immer sehr schnell im Index landen, meist dauert es nur wenige Minuten. Daraus schließe ich mal, dass ich für den Google Bot eine nette Spielwiese eingerichtet habe, die er nur zu gerne abgrast.
Doch kommen wird nun zu einem wirklich erfreulichen Fakt: Ich habe meine erste Spitzenposition bei Bing! wie lange das so bleiben wird, weiß ich allerdings nicht. Das ist an dieser Stelle aber auch egal. Interessant ist aber, dass eine Spitzenposition bei Bing etwa so viele Leser bringt wie Position 5 bei Google zu eben jenem Key. Soll heißen, Bing kann sich durchaus lohnen. Natürlich muss man dabei bedenken, dass diese Zahlen von Keyword zu Keyword schwanken können.
Verzeiht mir bitte, dass ich meine Keywords hier nicht nenne, ich will mir ja nicht unnötig Konkurrenz schaffen. Wer meine Posts eifrig mitverfolgt und sich ein wenig Zeit nimmt, findet aber heraus von welchen ich rede. So, wie man schön sehen kann, steht das Wasser zur Zeit recht günstig für einen erst 3 Wochen alten Blog. Mal sehen, wie sich die Sichtbarkeit in Suchmaschinen weiter entwickelt.
]]>Google Caffeine – mehr Chancen für Blogger? Google testet zur Zeit in einer Open-Beta sein neues Infrastruktur-Update mit dem schönen Namen Caffeine. Wer sich auch daran beteiligen will, wird an dieser Stelle fündig. Viel neues wird es anscheinend nicht geben, Google Caffeine soll “lediglich” schneller sein und mehr Ergebnisse liefern. Einen wirklich lesenwerten Artikel zu den Neuerungen und einen direkten Test der selbigen kann man bei Sistrix finden. Darauf möchte ich deshalb jetzt auch nicht weiter eingehen. Ich möchte noch ganz kurz darüber philosophieren, welche neuen Chancen Google Caffeine für Blogger bietet.
Man kann mit an Sicherheit grenzender Wahrscheinlichkeit davon ausgehen, dass der Algorithmus dem Update angepasst wird. Man könnte also folgende einfach Rechnung aufstellen: Schnellere Suche = Schnelleres Crawling. Sollte es wirklich so kommen, bieten sich Bloggern einige neue Möglichkeiten. Da in Blogs recht häufig sehr schnell auf aktuelle Entwicklungen reagiert wird, dürfte damit auch eine Aufwertung gegenüber statischen Websites einhergehen. natürlich ist das nur eine Theorie meinerseits, die Zukunft muss zeigen, ob es wirklich so kommt.
Das bei Google gerade etwas großes im Busch ist, kann man übrigens auch sehr schön an den Fluktuationen in den Serps sehen. Wer Lust hat, kann das zu einem Suchbegriff gerne mal über einen Tag beobachten.
Ich bin jedenfalls ziemlich gespannt, was Caffeine bringen wird. Natürlich kann man da nichts beeinflussen und so hilft nur warten und die Ruhe bewahren, wie so oft, wenn es um Google geht.
]]>Google crawlt meinen Blog nicht! Was nun?: Dieser Blog ist jetzt genau ein Woche alt und deshalb möchte ich diesen Post einer ganz besonderen Spezies im Web widmen, dem Googlebot. Der Googlebot ist der Webcrawler von Google und eigentlich auf jeder Website oder jedem Blog ein gern gesehener Gast, sorgt er doch dafür, dass frischer Inhalt in den Suchergebnissen von Google (SERP’s) erscheint. Was aber tun, wenn Google den eigenen Blog nicht crawlt? Nun, zuerst einmal heißt die oberste Direktive “Ruhe bewahren” und nicht in überstürzte Aktionen ausbrechen, die das vermeintliche Problem am Ende noch verschlimmern.
Man sollte die Situation schon über ein paar Tage, wenn nicht sogar Wochen beobachten, ehe man sich Gedanken über ein ernsthaftes Problem machen sollte. In diesem Fall heißt es dann Ursachenforschung betreiben. Dazu sollte man sich folgende Fragen stellen: Hat man, bevor Google das Crawlen des Blogs eingestellt hat, grundlegendes am Webauftritt verändert? Kann man diese Frage mit ja beantworten, könnte es daran liegen, muss aber nicht. Wenn die Antwort auf diese Frage jedoch nein heißt, muss man wohl weiter suchen.
Ein weiterer Grund für eine geringere Tätigkeit seitens der Google-Crawler könnte ein anstehendes PageRank-Update sein. Es ist bekannt, dass Google vor größeren Update die Kapazitäten anders verteilt, so dass für den Bot weniger übrig bleibt und er so auch nur weniger bzw. langsamer crawlen kann. Bei neueren Blogs kann es schon mal vorkommen, dass die Verlinken des eigenen Blogs einfach noch nicht ausreicht, um ein durchgehendes Crawlen zu gewährleisten.
Man mache doch einfach mal folgendes Gedankenexperiment (dazu muss man wissen, dass Links quasi Wegweiser für einen Crawler darstellen und diese über Links erst auf einen neuen Blog aufmerksam werden): Das gesamt Web besteht aus Milliarden von Websites und jeden Tag kommen Tausende dazu. Wenn ein Blog jetzt wenig bis gar keine eingehenden Links auf seine Website hat, dann ist die Wahrscheinlichkeit, dass sich ein Bot auf einen Blog verirrt auch entsprechend gering.
Natürlich gibt es noch einige weitere Möglichkeiten, wie zum Beispiel eine fehlende oder fehlerhafte Robot.txt. Desweiteren ist es auch möglich, dass serverseitige Probleme den Googlebot behindern. Wenn man einen solchen Fall vermutet sollte man sich an seinen Hoster wenden und seinen Verdacht äußern. Das schlimmste, was einem passieren kann, ist aber eine Strafe durch Google, die bis zur kompletten entfernen aus dem Index führen kann. Hat man sich aber die Richtlinien für Webmaster gehalten kann, das eigentlich nicht der passieren.
Was man also tun sollte, wenn der Googlebot den eigenen Blog nicht crawlt, ist in der Regel nicht ganz einfach zu sagen. In den meisten Fällen hilft nur die Ruhe bewahren und vielleicht für den ein oder anderen neuen Backlink zu sorgen.
]]>