Auf dieser Seite sammle ich meine Erlebnisse als Webmaster. Dabei lief nicht immer alles rund.
SEO vom 26.07.2006
SEO-Tagebuch: Zurzeit experimentiere ich mit dem Tool Crawltrack. Die Software wird in jede Seite eingebunden und protokolliert alle Seitenabrufe der Suchmaschinen Robots.
Seit heute habe ich im Footer der Seite einen Link zu einer HTML-Sitemap angelegt. Mal sehen, ob dadurch ältere Inhalte durch die Suchmaschinen indexiert werden. Die Links im Footer habe ich alle mit dem Title-Tag versehen.
Yahoo urllist vom 12.08.2006
Quasi als Abfallprodukt meiner Bemühungen ordentliche Sitemap-Dateien für Google zu bauen ist ein Skript für Yahoo Sitemap angefallen. In den Auswertungen des Crawltrackers fiel auf, dass die Yahoo-Roboter vorwiegend ältere Seiten und Party-Ankündigungen des letzten Jahres besuchen.
Hängt Indexierungspriorität bei Yahoo eventuell mit der Position einer URL in der Datei urllist.txt zusammen? Bisher ging ich davon aus: das Wichtigste zuerst. Seit heute stehen in der URL-Liste zuerst die Party-Ankündigungen, danach folgen die Inhaltsseiten. Mal sehen, ob die Roboter darauf reagieren.
Google, Microsoft und Yahoo machen gemeinsame Sache vom 19.11.2006
Die drei größten Suchmaschinenbetreiber Google, Microsoft und Yahoo haben einen gemeinsamen Standard für Sitemaps vereinbart. Unter sitemaps.org wird beschrieben, wie die Daten für die Suchmaschinen-Roboter bereit gestellt werden sollen.
Die ursprüngliche Idee einer Sitemap war den Nutzern einen schnellen Überblick über alle Teilbereiche eines Internet-Angebots zu bieten. Sitemaps für Suchmaschinen sind dagegen einfache XML-Dateien, die sämtliche URLs eines Internet-Auftritts enthalten.
Nach dem neuen Standard (Version 0.9) dürfen Sitemaps in einzelne Dateien aufgeteilt werden. Gegenüber dem Google-Standard (Version 0.84) hat sich fast nichts geändert. Pro Datei sind 50.000 URLs erlaubt, bei einer maximalen Größe von 10 MB. Einzelne Sitemaps werden im Sitemap-Index zusammengefasst. Für diese Seiten verwende ich folgende Struktur: Es wird ebenfalls beschrieben, dass die Sitemap bei den Suchmaschinen mit folgender URL angemeldet werden muss: <searchengine_URL>/ping?sitemap=sitemap_url Aber der Aufruf liefert bei keiner der drei Suchmaschinen den beschriebenen Returncode 200: Mühsam ernährt sich das Suchmaschinen-Optimierungs-Eichhörnchen. Meine SEO-Bemühungen zeigen weitere Wirkungen. Google belohnt dieses Internet-Angebot jetzt mit dem Pagerank 1. Darüber mögen professionelle Suchmaschinen-Optimierer zwar nur müde lächeln – mich freuts. Zeigt es doch, dass meine Versuche nicht ganz umsonst sind. Seit Monaten protokolliert der Web-Server Verweise aus Foren und Community-Websites. Die verlinkenden Webseiten habe ich mir genauer angesehen und gemerkt, dass manche Netzbewohner frech meine Bilder klauen. Die Leute machen sich nicht einmal die Mühe meine Bilder herunterzuladen und auf ihren eigenen Speicherplatz zu kopieren. Nein, es wird einfach meine Domain im img-Tag angegeben. Drei Zeilen in der Web-Server Konfiguration reichen aus, um dieses Treiben zu beenden: RewriteCond %{HTTP_REFERER} !^$ Die Logik der zwei Rewrite-Conditions ist durch das Ausrufezeichen eventuell schwer zu verstehen. Das !-Zeichen negiert die Abfragen. Zunächst prüft die Rewrite-Condition der ersten Zeile, ob der Referer im HTTP-Header gesetzt ist. Wenn die Variable HTTP_REFERER nicht leer ist, wird in der zweiten Zeile geprüft, ob mein Domainname im Referer steht. Wenn dies nicht der Fall ist, greift die dritte Zeile und verbietet den Zugriff auf Dateien im GIF-, JPG und PNG-Format. Entschuldigung liebe Web 2.0-Nutzer, Foren-Poster und Community-Blogger! Weiterführende Informationen zur Apache Konfiguration: URL Rewriting Guide. Der heutige Podcast-Donnerstag startete mit etwas Verzögerung. Um 1:04 Uhr Nachts fand ein Hacker eine klitzekleine Sicherheitslücke auf einem Test-Web-Server von mir. Das ewige Katz-und-Maus-Spiel verlor ich gegen einen Angreifer, der einfach pfiffiger war als ich. Dann entdeckte der Virenscanner die verdächtigen Dateien und schaltete vorsorglich alle Webseiten ab. Rewerb.com und Houseschuh.com sowie alle ähnlichen Domains waren zwischen 1:30 Uhr und 12:30 Uhr nicht erreichbar. Dabei lief bis gestern Abend noch alles nach Plan. Die zwölfte Podcast Folge hatte ich rechtzeitig fertig bekommen. Die nächste Podcast-Folge sollte pünktlich erscheinen. Jetzt ist alles wieder gut! Nach einem aufregenden Vormittag wünsche ich dir viel Spaß mit der Musik im Houseschuh Podcast. Inhaltsverzeichnis
Darin wird auf zwei weitere Sitemaps verwiesen:Sitemaps anmelden
Für diese Seiten also (url econded)
<searchengine_URL>/ping?sitemap=https%3A%2F%2Frewerb.com%2Fsitemap.xml
Pagerank von Eins vom 14.01.2007
Bilderklau verhindern vom 28.07.2007
RewriteCond %{HTTP_REFERER} !^http://(.*.|.*)rewerb.com/(.*)$ [NC]
RewriteRule .*.(gif|jpg|png|GIF|JPG|PGN)$ – [F]
Ich fühle mich geehrt, wenn jemand meine Schnappschüsse verbreiten will. Aber ich bezahle bestimmt nicht den Grafik-Traffic für eure Internet-Inhalte. Wenn du ein Bild meiner Webseite nutzen möchtest, dann schicke mir bitte eine kurze E-Mail. Und am Server gingen die Lichter aus vom 21. November 2013