Web 2.0 ist ein Phänomen, das vor allem durch eine hohe Beteiligung der Nutzer (neudeutsch: Community) und technische Neuerungen wie AJAX gekennzeichnet ist. Viele Websites sind – auch auf Grund dieser Eigenschaften – nicht optimal auf Suchmaschinen ausgerichtet und verzichten dadurch auf viele potenzielle Besucher. Auch wenn alle Websites unterschiedlich sind, häufen sich bestimmte Probleme immer wieder bei Web 2.0-Sites. In der Regel ist es mit relativ einfachen Mitteln möglich, eine Website gleichermaßen für Besucher und für Suchmaschinen attraktiv zu machen.
1. Content
Einer der wichtigsten Faktoren für erfolgreiche Suchmaschinen-Optimierung ist die Abstimmung der Inhalte auf Suchbegriffe. Wenn die Inhalte von einer Redaktion erstellt werden, ist das in der Regel kein Problem. Aber wie ist das, wenn die Inhalte von den Besuchern und Nutzern der Web-Plattform (neudeutsch Community) erstellt werden?
Im Rahmen von Web 2.0 fällt das unter den Begriff User-Generated Content (UGC). Der Slogan „Content is King“ ist hinlänglich bekannt. Analog gilt „User-Generated Content is King“ aber noch lange nicht.
Auch wenn eine Website über sehr viel Content verfügt, ist dieser nur selten auf Suchbegriffe abgestimmt. So kann eine Dating-Website über fünf Millionen persönliche Profile (Name, Beschreibung, …) verfügen, aber wenn niemand direkt nach dem Namen eines Mitgliedes sucht, sind diese Daten zunächst zum Zwecke der Optimierung nicht zu verwenden.
1.1 Ausführliche Inhalte
Wichtig ist daher vor allem, die Community dazu zu bewegen, sinnvolle und ausführliche Inhalte bereitzustellen. Ein Beispiel: Eine fiktive Website erlaubt auf seiner Website die Bildung von Gruppen Gleichgesinnter (z.B. Jeep-Fahrer in Österreich). Wenn man nun das Gründungsmitglied beim Erstellen der Gruppe dazu auffordert, dieser Gruppe eine Beschreibung zu geben, wird das Ergebnis relativ kurz und oftmals nichtssagend ausfallen.
Der Trick kann dann z.B. darin bestehen, ihm eine Schablone aus Teilfragen vorzulegen, die er beantworten muss und deren Antworten zusammengesetzt die Gruppenbeschreibung darstellen. Ein Beispiel:
Worum geht es in der Gruppe?
Die Gruppe Jeep-Freunde Österreich richten sich an alle, die Spaß am Jeep-Fahren haben.
Was erwartet mich in dieser Gruppe? Was unternehmen Sie? Wie oft?
Treffen dieser Gruppe finden mind. einmal im Monat in Wien und Umgebung statt.
Einige aufmunternde Worte an Neulinge, die sich bei Ihnen anmelden möchten.
Wir freuen uns über alle Jeep-Fahrer, egal ob jung oder alt, egal ob Männlein oder Weiblein.
Aus diesen drei Teilantworten kann dann die Gruppenbeschreibung zusammengesetzt werden. Damit der Autor der Beschreibung das auch weiß und die Einzelantworten besser aufeinander abstimmt, sollte auf jeden Fall ein Preview angezeigt werden.
Insgesamt sollten Sie also in solchen Fällen detailliert vorgeben, wie die Texte gestaltet sollten – nicht nur, um für Suchmaschinen gute Inhalte zu bieten, sondern auch, um den Besuchern der Website hochwertige Inhalte bieten zu können.
1.2 Optimierung der Inhalte
Falls es nicht möglich ist, die Eingabe der Inhalte zu beeinflussen, müssen zumindest die Seiten insgesamt so weit optimiert werden wie möglich. Vor allem die direkt beeinflussbaren Elemente der Seite (z.B. Seitentitel, Überschrift oder auch Navigationselemente) sollten optimiert werden.
Ebenso ist es ratsam, aus den Inhalten diejenigen auszusuchen, die am besten auf Suchbegriffe abzielen können. Ein Beispiel: Eine fiktive Hoteldatenbank verfügt über mehr als 50 Erfahrungsberichte zu einem bestimmten Hotel in Sao Paolo. Wenn die Seite, die diese Berichte anzeigt, auf den Suchbegriff „sao paolo hotel“ optimiert werden soll, wäre es ratsam, die Berichte zuerst zu zeigen, die eben diese Suchbegriffe enthalten – idealerweise sogar noch in der richtigen Reihenfolge. Die Daten müssen also einem eigenen Ranking unterzogen werden, das die Algorithmen der Suchmaschinen berücksichtigt.
2. Technologische Probleme
Viele der technologischen Probleme, die für „normale“ Websites gelten, gibt es natürlich auch bei Web 2.0-Sites, z.B. dynamische URLs oder die Verwendung von Frames oder iFrames. Zusätzlich zu diesen Problemen treten bei Web 2.0-Sites aber häufig ganz bestimmte Probleme auf – verursacht durch Design-Prinzipien und neue technologische Möglichkeiten.
2.1 AJAX
AJAX, also das dynamische Aktualisieren bestimmter Teile einer Webseite, kann sehr grundlegende Probleme verursachen. So gibt es Websites, deren Inhalte komplett über AJAX dargestellt werden. Das dynamische Aktualisieren der Inhalte ist prinzipiell kein Problem, solange die angezeigten Inhalte nicht relevant sind. Wenn also z.B. durch AJAX eine angezeigte Ergebnisliste umsortiert oder ein Aktienkurs-Chart aktualisiert wird, hat das in der Regel keine Auswirkungen.
Wenn aber die relevanten Inhalte per AJAX eingeblendet werden, können Suchmaschinen diese i.d.R. nicht auslesen. Den Test kann man relativ einfach machen, indem man sich den Quellcode einer Seite anschaut: Wenn die in der Seite vorhandenen relevanten Texte auch im Quellcode zu finden sind, hat eine Suchmaschine damit kein Problem.
Falls eine Website AJAX so massiv einsetzt, dass die relevanten Inhalte nicht mehr für Suchmaschinen zu erfassen sind, empfiehlt es sich, entweder den Einsatz von AJAX zu beschränken oder spezielle Seiten nur für Suchmaschinen bereitzustellen. Das hat gleich zwei Nachteile: Ein solches Vorgehen verstößt in der Regel gegen die gängigen Suchmaschinen-Richtlinien, so dass im schlimmsten Fall ein Ausschluß aus dem Suchmaschinen-Index folgen kann. Außerdem ist es schwierig, diese optimierten Seiten so zu gestalten, dass ein Suchmaschinen-Besucher zwar seinen Besuch der Website auf einer solchen Seite beginnt, später aber auf den AJAX-orientieren Teil der Website gelangt.
AJAX rüttelt an den Grundprinzipien einer jeden Suchmaschine, denn Suchmaschinen funktionieren seitenzentriert. Im Suchmaschinen-Index befinden sich jeweils Seiten, die über eine einzigartige URL verfügen. Ähnlich wie bei der Verwendungen von Frames kann es aber bei AJAX-Sites so sein, dass es für ganz bestimmte Seitenzustände keine URLs mehr gibt. Selbst wenn Suchmaschinen prinzipiell AJAX erfassen könnten, würden sie also an dieser Stelle an ein schwer zu lösendes Problem stoßen.
Der einfache Rat ist also, die Verwendung von AJAX auf nicht relevante Teile einer Website zu beschränken. Im Prinzip muss man also abwägen, ob die verbesserte Benutzerfreundlichkeit durch AJAX wichtiger ist als die Suchmaschinenfreundlichkeit und der daraus resultierende Traffic.
2.2 Formulare
Formulare sind kein Web 2.0-spezifisches Problem, kommen aber dort häufig zum Einsatz. So verfügte z.B. eine große Immobilienmakler-Plattform über ein zentrales Sucheingabefeld, in das man z.B. den Namen einer Stadt oder die Postleitzahl eintippen konnte. Suchmaschinen können aber keine Daten in Formulare eintragen, da sie hierzu raten müssten, welche Eingaben sinnvoll sind und welche nicht.
Prinzipiell müssen die Inhalte als Teile einer Site-Struktur vorhanden sein. Wenn eine Plattform also hinter dem Formular Daten zu 100 verschiedenen Städten anbietet, müsste es ein Verzeichnis (verlinkte HTML-Seiten) geben, in dem diese Städte aufgelistet sind und jeweils auf die entsprechende Städteseiten verlinken.
2.3 Links
Nicht jeder Link kann von Suchmaschinen gelesen werden. In einigen Fällen werden Links entweder als JavaScript-Aufruf gelöst oder – noch schlimmer – der HTML-Code, der die Links beinhaltet, wird durch JavaScript erzeugt. Ähnlich zur AJAX-Problematik gilt auch hier, dass die Links im HTML-Code als solche () erkennbar sein müssen.
3. Strukturelle Probleme
Viele Web 2.0-Sites sind strukturell nicht auf Suchmaschinen ausgerichtet, so dass diese für viele relevante Suchbegriffe nicht gefunden werden können.
3.1 Ausrichtung auf Suchmaschinen
Auch bei Web 2.0 gilt: Wenn eine Website für einen bestimmten Suchbegriff gefunden werden soll, muss auch eine Seite existieren, die auf diesen Suchbegriff abzielt. Alle Seiten müssen zudem in eine Site-Struktur eingebettet sein, die alles umfasst und idealerweise einen Top-Down-Ansatz verfolgt, also die allgemeinen Inhalte weit oben in der Struktur platziert und die spezifischeren Inhalte weiter unten.
Web 2.0-Sites vernachlässigen diese Notwendigkeit häufig, weil sie unter anderen Aspekten entwickelt werden. Es ist also insbesondere für Web 2.0-Sites wichtig, die relevanten Suchbegriffe zu recherchieren und dann eine Site-Struktur zu etablieren, die auf diese Suchbegriffe abzielt.
3.2 Public vs. Private Content
Viele Web 2.0-Sites haben ein grundlegendes Problem: Einerseits möchten sie, dass viele Nutzer Accounts anlegen, was man am einfachsten dadurch forcieren kann, dass die meisten Daten nur mit einem Login abrufbar sind („Private Content“ im Gegensatz zu „Public Content“). Andererseits schreckt es Nutzer ab, sich zuerst registrieren zu müssen, ohne die Qualität oder die Menge der Daten zu sehen.
Im Zusammenhang mit Suchmaschinen ist es noch wichtiger, über Public Content zu verfügen, weil Suchmaschinen per se nur diesen lesen können; ähnlich wie bei Formularen gilt auch hier, dass Suchmaschinen sich nicht einloggen können.
Die beste Lösung für dieses Problem ist eine hybride Lösung sein, die z.B. ein Anbieter im Social-Networking-Segment verfolgt: Benutzer können ein öffentliches Profil definieren bzw. festlegen, welche Daten öffentlich sind. Auf diesem Wege sind oftmals genug Daten für Suchmaschinen sichtbar und zugleich existiert eine Motivation, sich zu registrieren.
4. Verlinkung
Eines der wichtigsten Kriterien für Suchmaschinen wie Google ist die Verlinkung einer Website, vor allem die so genannten Inbound Links: Andere Websites, die möglichst relevant und ebenfalls gut verlinkt sein sollten, müssen auf die eigene Website verlinken. Die meisten Websites müssen sich proaktiv um die Verlinkung kümmern, insbesondere dann, wenn eine Website noch recht neu ist.
Web 2.0 bietet in gewisser Hinsicht einige Merkmale, die eine Verlinkung erleichtern. So kann z.B. ein RSS-Feed helfen, die Verlinkung zu verbessern, da andere Websites so leichter auf aktuelle Inhalte der jeweiligen Website verlinken können. Auch stellen viele Web 2.0-Sites ihren Benutzern HTML-Code bereit, den diese in ihre eigenen Websites einbauen können, um z.B. auf Ihr persönliches Profil zu verlinken. Es macht also durchaus Sinn, den Faktor Verlinkung proaktiv voranzutreiben, indem man der Community einfache Werkzeuge an die Hand gibt.
Wichtig können aber auch die von einer Website ausgehenden Links (neudeutsch: Outbound Links) sein. Wenn die Benutzer einer Web 2.0-Site Ihrem Profil beliebige Links hinzufügen können, ist dem Link-Spam Tür und Tor geöffnet: Schon bald werden sich hier viele Links auf zwielichtige oder zweifelhafte Angebote finden.
Das Problem kann dann darin bestehen, dass eine Suchmaschine wie Google die Web 2.0-Site als nicht mehr vertrauenswürdig ansieht, weil die ausgehenden Links analysiert werden und weil eine Website, die auf viele zweifelhafte Links verweist (neudeutsch: Bad Neighborhood), ebenfalls auch nicht vertrauenswürdig angesehen werden kann.
Die einfachste Lösung besteht dann in der entsprechenden Markierung dieser Links: Wenn man solche Links mit dem Attribut „rel=nofollow“ belegt, werden Suchmaschine die entsprechend markierten Links nicht in die Link-Analyse einbeziehen.