Dienstag, 3. Dezember 2013

Tag 10: On Page Optimierung - Google Webmaster Tools

Fortsetzung der Erstellung einer Website


Prüfung, ob Domain noch verfügbar ist, bei www.checkdomain.de

Es gibt viele neue Endungen für Domains: Auswahl unter www.united-domains.de

Hosting Anbieter auswählen, wie z.B. Strato, 1&1

Das Hosting Paket sollte auf jeden Fall einen FTP Zugang, mySQL Datenbanken sowie PHP umfassen.

Als Content Management System (CMS) eignet sich WordPress gut

Google Webmaster Tools


Wenn man eine Website mit diesen Tools prüfen lassen möchte, muss man zuerst die Inhaberschaft der Website bestätigen. Dies geschieht über ein HTML Code, den man in den <head> tag der Website einfügt

XML Sitemap


Damit ein Crawler die Website schneller auslesen kann, muss eine xml Sitemap erstellt und im Stammverzeichnis (root) auf dem Server eingestellt werden. Unter www.xml-sitemaps.com findet man eine Generator für diese Datei. Ähnlich wie bei der HTML Sitemap gibt diese Datei einen Überblick über die Seitenstruktur der Website, sie ist jedoch für den Crawler optimiert.

robots.txt


Ein Webcrawler (Robot) liest beim Auffinden einer Website zuerst die Datei robots.txt (kleingeschrieben) im Stammverzeichnis einer Domain. In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf. Website-Betreiber haben so die Möglichkeit, ausgesuchte Bereiche ihrer Webpräsenz für (bestimmte) Suchmaschinen zu sperren. Wenn im besten Fall alle Unterseiten für den Crawler freigegeben sind, dann bedarf es keiner robots.txt. Jedoch gibt es oft Unterseiten oder Bereiche einer Website, die ein Crawler nicht auslesen sollte, wie z.B. den Admin Bereich.

Beispiel:
User-agent: Sidewinder
Disallow:


Bedeutung:
User-agent: Sidewinder (gilt nur für den Webcrawler Sidewindr)
Disallow: / (Auslesen nicht gestatten; die komplette Webpräsenz darf nicht durchsucht werden)

User-agent:  * (gilt für alle Webcrawler)
Disallow:  (kein Ausschluss; die komplette Webpräsenz darf durchsucht werden)

.htaccess

 

Wenn eine Domain mit und ohne www. ausgeliefert wird, kann man in der .htaccess Datei im Stammverzeichnis definieren, welche Domain die Hauptdomain werden soll. Da die gängigen Domains mit www. beginnen, sollte auf diese Domain weitergeleitet werden.

RewriteCond %{HTTP_HOST} !^example.com$ [NC]
RewriteRule ^(.*)$ http://www.example.com/$1 [L,R=301]

So verhindert man duplicated content und optimiert die Website für den Webcrawler. Ansonsten kann es passieren, dass die Website nicht mehr indexiert wird.

Exkurs


Antwort Codes des Servers:

404 Seite nicht verfügbar
403 Zugang verwehrt
200 alles in Ordnung
301 oder 302 Weiterleitung
500 unerwarteter Serverfehler
 
Wie entferne ich eine Seite aus dem Google Index, die nicht mehr verfügbar ist?

Google Webmaster Tools - Google Index - URLs entfernen

Weitere Webmaster Tools:

Ergebnisse für alle Keywords (Impressionen, Klicks, CTR, durchschnittliche Position im Ranking, Veränderung) und für alle anderen Suchbegriffe, die User eingegeben haben, und so die Suchergebnisse gesehen haben. So hat man die Möglichkeit, neue Ideen für Keywords zu bekommen, die man wieder im Keyword Planer prüfen kann.

Keine Kommentare:

Kommentar veröffentlichen