Hier der abschließende Teil unserer Serie „SEO mit den Google Webmaster Tools“. Erläutert werden die Menüpunkte „Google-Index“, „Crawling“, „Sicherheitsprobleme“ und „andere Ressourcen“. (Teil 1: „Erste Schritte“ und „Darstellung der Suche“ findest du hier: http://www.typo3-webdesign.biz/blog/index.php/seo-mit-den-google-webmaster-tools-ein-praktischer-leitfaden/2015/09/25/, Teil 2: „Suchanfragen“ hier: http://www.typo3-webdesign.biz/blog/index.php/seo-mit-den-google-webmaster-tools-teil-2/2015/10/09/)
3) Google-Index
3.1) Indexierungsstatus
Hier wird in der einfachen Ansicht die Gesamtzahl der URLs deiner Website, die zum Google-Index hinzugefügt wurden und somit für die Anzeige in den Suchergebnissen verfügbar sind, angezeigt. Öffnet man die erweiterte Ansicht, wird zusätzlich noch die Anzahl an von Robots blockierten URLs ausgegeben, also die Gesamtzahl der URLs, die über eine robots.txt -Datei vom Crawling ausgenommen ist. robots.txt werden z.B. dann gesetzt, wenn es sich um Seiten handelt, die für die Suchmaschine irrelevante Inhalte (z.B. AGBs) oder duplicate content enthalten, oder an denen noch gearbeitet wird. Außerdem werden in der erweiterten Ansicht die entfernten URLs, also URLs die aufgrund eines Antrags auf Entfernung durch den Website-Betreiber aus den Google-Suchergebnissen entfernt wurden, angezeigt.
3.2) Content Keywords
Auf der Seite Content Keywords werden dir die Keywords angezeigt, die Google am häufigsten auf deiner Website gefunden hat. Wenn du diesen Bericht mit den von dir für wichtig erachteten Keywords abgleichst, kannst du erkennen für welches Keyword noch Optimierungsbedarf besteht (entsprechend der Häufigkeit). Sinnvoll ist es auch, den Bericht einmal mit den Suchanfragen sowie mit tatsächlichen Suchergebnissen für deine Ziel-Keywords zu vergleichen. Klickt man im Bericht auf die einzelnen Keywords, erhält man weitere Informationen zur Häufigeit und zu den Seiten die diesen Begriff enthalten.
3.3) Blockierte Ressourcen
Unter diesem Menüpunkt werden Ressourcen angegeben, die von deiner Website verwendet werden, jedoch für den Googlebot blockiert sind. Sollte das Crawlen von vielen Ressourcen verhindert werden, wirkt sich dies u.U. negativ auf das Ranking der Website aus, da Google die Seite nicht optimal indexieren und rendern kann. Klickt man in dem Bericht auf die einzelnen Seiten, die blockierte Ressourcen hosten, erhält man eine Anleitung zur Aufhebung der Blockierung dieser Ressourcen.
3.4) URLs entfernen
Mit diesem Tool können einzelne URLs vorübergehend aus den Suchergebnissen entfernt werden. Es wurde entwickelt, damit Websitebetreiber dringliche inhaltliche Änderungen vornehmen können und diese sich schnell in den Suchergebnissen widerspiegeln. Jedoch werden Inhalte durch „URLs entfernen“ nicht gänzlich aus den Suchergebnissen entfernt, sondern nur blockiert bis die Änderungen von Google indexiert wurden. Es ist nicht möglich Inhalte dauerhaft mit dem Tool zu entfernen.
In der Standardansicht sieht man die bisher bei Google eingegangen Anträge auf Entfernung; solltest du als Websitebetreiber das Tool bisher nicht genutzt haben, wird „Keine Anträge auf Entfernung von URLs in den letzten 6 Monaten“ ausgegeben.
Um eine URL aus den Suchergebnissen zu entfernen, wählt man den Menüpunkt „vorübergehend entfernen“ und gibt im Fenster die URL, die ausgeblendet werden soll ein. Im nächsten Schritt muss ausgewählt werden, ob die Seite vorübergehend in den Suchergebnissen ausgeblendet und aus dem Cache entfernt werden soll, nur aus dem Cache entfernt werden soll, oder ob das Verzeichnis vorübergehend ausgeblendet werden soll. Wenn die Auswahl dann bestätigt wurde, wird die URL aus dem Google Index entfernt. Sie kann somit die nächsten 90 Tage nicht wieder in den Google Index aufgenommen werden.
Falls eine URL aus Versehen gelöscht wurde, kann die Wiederherstellung im Dropdown-Menü unter „alle“ beantragt werden.
Hinweis: Um eine URL mit dem Tool manuell aus dem Index zu entfernen, muss eine der folgenden Anforderungen an die URL erfüllt sein: Ausgabe des HTTP-Statuscodes 404 oder 410, blockiert über die Robots.txt oder blockiert über das Noindex Meta-Tag.
4) Crawling
4.1) Crawling-Fehler
Im Bericht Crawling-Fehler werden die Website-URLs ausgegeben, die Google nicht crawlen konnte oder die einen HTTP-Fehlercode zurückgegeben haben. Der Bericht teilt sich auf den Bereich „Website-Fehler“ und in den Bereich „URL-Fehler“. Unter Website-Fehler werden die wichtigsten Probleme, die in den letzten 90 Tagen aufgetreten sind, und durch die der Googlebot am Zugriff auf die gesamte Website gehindert wurde angezeigt. Sollte im Bericht nicht „keine Fehler in den letzten 90 Tagen“ stehen, sind DNS-Fehler, Server-Fehler oder robots.txt-Fehler aufgetreten. Diese Fehler sind schwerwiegend, da sie den Zugriff auf die gesamte Website verhindern, und sollten umgehend behoben werden.
Unter URL-Fehler werden spezifische Fehler aufgeführt, die in Google beim Crawling spezifischer Desktop-, Smartphone- oder Android-App-Seiten aufgetreten sind. Für die Seitenarten Desktop und Smartphone werden hier, sofern vorhanden, die Seiten mit 404-Fehlern bzw. die URLs, die auf nicht vorhandene Seiten verweisen, aufgeführt. Diese Fehler beeinflussen die Suche nicht, sollten aber zur Verbesserung der Nutzererfahrung behoben werden.
4.2) Crawling-Statistiken
Unter diesem Menüpunkt erscheinen Grafiken und Angaben zu den Google-Bot-Aktivitäten auf deiner Website in den letzten 90 Tagen. Angezeigt werden die pro Tag gecrawlten Seiten, die pro Tag heruntergeladenen Kilobites sowie die Dauer des Herunterladens einer Seite. Umso schneller die Ladezeiten einer Website, desto mehr Seiten können pro Tag vom Google-Bot gecrawlt werden. Die Inhalte einer Website werden also schneller indexiert.
4.3) Abruf wie durch Google
Dieses Tool simuliert den Aufruf einer Seite durch den Google-Bot, sodass geprüft werden kann wie Google die Seite rendert und ob bestimmte Seitenelemente, z.B. Bilder oder Javascript-Elemente, für den Google-Bot blockiert sind und damit nicht indexiert werden können. Es hilft somit dem Websitebetreiber bei der Usachenfeststellung und Problembehebung bei Crawling-Fehlern.
Du kannst einen Abruf ausführen, indem du die Pfadkomponente der URL eingibst, die du dir ansehen willst. Du kannst auswählen, ob die Desktop- oder die mobile Ansicht der Seite ausgegeben wird. Klickt man auf die Details eines abgeschlossenen Abrufs, kann der Abrufstatus angezeigt werden. Lautet dieser „Abgeschlossen“, konnten alle Ressourcen abgerufen werden. Wird „Teilweise“ angezeigt, dann konnte die URL zwar abgerufen werden, aber einige Ressourcen sind blockiert. Die Blockierungen sollten vom Website-Betreiber aufgehoben werden, damit Google die Seiten richtig analysieren kann. Eine Liste von häufigen Ressourcenfehlern findet man hier: https://support.google.com/webmasters/answer/6066468
4.4) robots.txt-Tester
Mit dem robots.txt-Tester kannst du feststellen, auf welche URLs auf deiner Website Google zugreifen kann und auf welche nicht. Somit kannst du herausfinden, ob bestimmte Unterseiten versehentlich für Google geblockt wurden.
4.5) Sitemaps
Im Sitemaps-Bericht siehst du eine Übersicht der Sitemaps, die du bei der Search Console eingereicht hast sowie eine Übersicht der tatsächlich indexierten Sitemaps. Über den Button am oberen rechten Bildrand kannst du unter diesem Menüpunkt außerdem weitere Sitemaps einreichen. Das kann u.a. empfehlenswert sein, wenn die Website-Inhalte häufig wechseln/angepasst werden, wenn eine Website neu ist und bisher kaum Back- und Deeplinks enthält, oder die Website große Archive enthält. Wenn eine neue Sitemap eingereicht wurde, stellt dies keine Garantie dafür dar, dass die Inhalte in den Google-Index übernommen werden. Google wägt den Inhalt auf verschiedene Faktoren der Nützlichkeit für die User ab und entscheidet so über eine Aufnahme in den Google-Index.
4.6) URL-Parameter
Hier können erfahrene Webmaster Einstellungen festlegen, die Google dazu veranlassen, die bevorzugte Version einer URL zu crawlen, oder Google daran hindern, duplicate content auf der Website zu crawlen. Meist wird unter dem Menüpunkt jedoch angezeigt: „Der Googlebot hat momentan keine Probleme mit dem Crawlen Ihrer Website, daher müssen Sie keine URL-Parameter konfigurieren.“ Das Tool sollte nur bei Bedarf, und wenn man mit der Funktionsweise von Parametern vertraut ist, eingesetzt werden. Werden URLs fälschlicherweise ausgeschlossen, kann es passieren, dass viele Seiten aus dem Google-Index verschwinden.
5) Sicherheitsprobleme
Unter diesem Menüpunkt werden etwaige Sicherheitsprobleme, wie Malware oder Phishing angezeigt und detailliert aufgeschlüsselt. Infizierte Teile werden als Code-Snippet aufgeführt. Sollte deine Website mit Malware infiziert worden sein, solltest du schnell reagieren und den Schaden zu beheben. Hier solltest du bei Unsicherheiten definitiv professionelle Hilfe in Anspruch nehmen. Im Normalfall wird jedoch einfach „Wir konnten keine Sicherheitsprobleme für Ihre Website-Inhalte feststellen.“ ausgegeben. Sollte eine Website von Malware etc. betroffen gewesen sein, kann man hier auch den Erfolg von Bereinigungsmaßnahmen überprüfen.
6) Andere Ressourcen
Unter dem letzten Menüpunkt der Webmaster-Tools findest du Links zu anderen Google-Services, die für Webmaster interessant sind. Aktuell sind folgende Verweise aufgelistet:
• Test-Tool für strukturierte Daten
• Hilfsprogramm zur Auszeichnung strukturierter Daten
• E-Mail-Markup-Tester
• Google MyBusiness
• Google Merchant Center
• PageSpeed Insights
• Benutzerdefinierte Suche
• Google Domains
• Webmaster Academy
Wie du siehst, enthalten die Google Webmaster-Tools eine umfangreiche Sammlung an nützlichen Berichten, Funktionen und Tools, um das Ranking deiner Website sowie die Website selbst zu verbessern. Dabei sind die Oberflächen stets einfach gehalten und die meisten Funktionen sind leicht verständlich – also los geht’s! :-)