Fortsetzung der Erstellung einer Website
Prüfung, ob Domain noch verfügbar ist, bei www.checkdomain.de
Es gibt viele neue Endungen für Domains: Auswahl unter www.united-domains.de
Hosting Anbieter auswählen, wie z.B. Strato, 1&1
Das Hosting Paket sollte auf jeden Fall einen FTP Zugang, mySQL Datenbanken sowie PHP umfassen.
Als Content Management System (CMS) eignet sich WordPress gut
Google Webmaster Tools
Wenn man eine Website mit diesen Tools prüfen lassen möchte, muss man zuerst die Inhaberschaft der Website bestätigen. Dies geschieht über ein HTML Code, den man in den <head> tag der Website einfügt
XML Sitemap
Damit ein Crawler die Website schneller auslesen kann, muss eine xml Sitemap erstellt und im Stammverzeichnis (root) auf dem Server eingestellt werden. Unter www.xml-sitemaps.com findet man eine Generator für diese Datei. Ähnlich wie bei der HTML Sitemap gibt diese Datei einen Überblick über die Seitenstruktur der Website, sie ist jedoch für den Crawler optimiert.
robots.txt
Ein Webcrawler (Robot) liest beim Auffinden einer Website zuerst die Datei robots.txt (kleingeschrieben) im Stammverzeichnis einer Domain. In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf. Website-Betreiber haben so die Möglichkeit, ausgesuchte Bereiche ihrer Webpräsenz für (bestimmte) Suchmaschinen zu sperren. Wenn im besten Fall alle Unterseiten für den Crawler freigegeben sind, dann bedarf es keiner robots.txt. Jedoch gibt es oft Unterseiten oder Bereiche einer Website, die ein Crawler nicht auslesen sollte, wie z.B. den Admin Bereich.
Beispiel:
User-agent: Sidewinder Disallow: /Bedeutung:
User-agent: Sidewinder (gilt nur für den Webcrawler Sidewindr)
Disallow: / (Auslesen nicht gestatten; die komplette Webpräsenz darf nicht durchsucht werden)
User-agent: * (gilt für alle Webcrawler)
Disallow: (kein Ausschluss; die komplette Webpräsenz darf durchsucht werden)
.htaccess
Wenn eine Domain mit und ohne www. ausgeliefert wird, kann man in der .htaccess Datei im Stammverzeichnis definieren, welche Domain die Hauptdomain werden soll. Da die gängigen Domains mit www. beginnen, sollte auf diese Domain weitergeleitet werden.
RewriteCond %{HTTP_HOST} !^example.com$ [NC]
RewriteRule ^(.*)$ http://www.example.com/$1 [L,R=301]
So verhindert man duplicated content und optimiert die Website für den Webcrawler. Ansonsten kann es passieren, dass die Website nicht mehr indexiert wird.
Exkurs
Antwort Codes des Servers:
404 Seite nicht verfügbar
403 Zugang verwehrt
200 alles in Ordnung
301 oder 302 Weiterleitung
500 unerwarteter Serverfehler
Wie entferne ich eine Seite aus dem Google Index, die nicht mehr verfügbar ist?Google Webmaster Tools - Google Index - URLs entfernen
Weitere Webmaster Tools:
Ergebnisse für alle Keywords (Impressionen, Klicks, CTR, durchschnittliche Position im Ranking, Veränderung) und für alle anderen Suchbegriffe, die User eingegeben haben, und so die Suchergebnisse gesehen haben. So hat man die Möglichkeit, neue Ideen für Keywords zu bekommen, die man wieder im Keyword Planer prüfen kann.
Keine Kommentare:
Kommentar veröffentlichen