publish and discover academic work ...

Indexierung von AJAX-Seiten

Hallo Acadopuser!

AJAX ist eine tolle Technologie, hat viele Vorteile und deswegen hat sich heute in Web durchgesetzt. Man kann sogar sagen, dass sie de facto ein Standard ist. Allerdings es gibt ein Moment, dass jedem SEO-Mensch AJAX weh tut: die Seiten mit AJAX werden nicht indexiert. Ist das so? Das Problem ist eigentlich seit langem gelöst: Google AJAX Crawling. Die Idee ist, wenn Google-Bot in URL die Zeichen (#!) findet, wird andere Seite angesprochen. Diese andere Seite muss schon aus reinem HTML bestehen, dann wird sie von Google akzeptiert und indexiert. Jetzt stellt sich die Frage, wie man diese andere Seite erstellen kann. Dafür gibt es viele Möglichkeiten, man will aber keine zusätzliche „Spiegel“-Seite produzieren, um einfach Aufwand zu vermeiden. Es gibt eine Schlauheit, die es uns erlaubt, dieselbe Seite, mit und ohne AJAX zu produzieren. Man soll nur irgendwie auf der Serverseite JavaScript auszuführen und dem Client schon fertige Seite abgeben. Dafür benötig man selbstverständlich einen Browser, der auf dem Server läuft und JavaScript bearbeitet.

Also, ich möchte Ihnen das Projekt Hashbang vorstellen, der genau das Problem lösen kann. Es geht um einen Proxy-Server, der in Ruby geschrieben ist und Protokoll Rack benutzt.

Bei Initialisierung erzeugt Hashbang eine Instance von Webkit-Browser, der wie Sie schon wahrscheinlich verstanden haben, den JavaScript ausführt und HTML erzeugt.. Das Bild unten zeigt wie die Anfrage abläuft.



Noch ein Moment, das man berücksichtigen muss. Um Hashbang zu benutzen brauchen Sie noch Sunscraper und Qt.

Am Ende möchte ich noch sagen, dass Google AJAX Crawling von Google(ja, klar!), Bing, Yahoo und sogar crawler Facebook unterstützt wird.
Viel Spaß damit!
  • easyman easyman,
  • 10 April 2012, 20:13
  • 0

Kommentare (0)

RSS zusammenklappen / ausklappen

Kommentar schreiben

Ihr Name
Sie sind ein Gast, Sie dürfen keine HTML-Tags verwenden
Bitte geben Sie die Zeichen in das folgende Feld ein