Zentrale Registrierungsstelle für alle Domain
3 kleine Schritt-für-Schritt Anleitungen
-> Htaccess - Die .htaccess (z.B. für die sehr wichtige WWW-Klärung*)
RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^domain.de
RewriteRule (.*) http://www.domain.de/$1 [R=301,L]
Die Robots.txt
-> XML-Sitemap-generator
https://www.xml-sitemaps.com/crawl.html
von Ralf
- Auf dem Affenblog ist eine schöne Studie von der NewYorkTimes verlinkt
- Der Wikibeitrag zur .htaccess Datei
- Kleines Tutorial zu den 3wichtigsten Serverdateien zum SEO
- Für eine individuelle Sitemap.xml könnt ihr auch Generatoren verwenden
- Ihr könnt den Crawler sehr gut in den Webmaster Tools überwachen
- Das Root Verzeichnis auf einem Server wird auch Stammverzeichnis benannt
- Zudem gibt es Statuscodes, die ihr teilweise schon mal gehört haben solltet
- Die Robots.txt ist sozusagen euer "Türsteher" für den Crawler
- Hier ist ein Beispiel für eine Robots.txt. Datei für Wordpress
- Ein weiteres Programm zur Erstellung einer Sitemap.xml
- 50 Gründe warum eine Google Abstrafung stattfinden kann
- Schreibt ihr gute Texte ohne viele Füllwörter?! ;)
- Zu dem Webmaster Tools gibts noch viele Hinweise zum Anfügen von Websites
Keine Kommentare:
Kommentar veröffentlichen