Dies ist der erste Artikel im Bereich SEO. Deshalb werde ich ersteinmal erklären “gegen” wen SEOs bei ihrer täglichen Arbeit kämpfen.
Das Internet wächst mit enormer Geschwindigkeit. Im Jahr 2008 gab es rund 2.5 Milliarden Webseiten, wobei täglich etwa 7 Millionen hinzukommen. Suchmaschinen, welche die einzige Möglichkeit für Nutzer sind, effektiv auf diese Datenmengen zugreifen zu können sind deshalb der meistgenutzte Dienst im Internet [KON2008 S.3]. In diesem Artikel geht es um Suchmaschinen im Allgemeinen, d.h. welche Arten von Suchmaschinen es gibt und welche wirtschaftliche Bedeutung diese haben. Außerdem geht es um Probleme, die Suchmaschinen daran hindern ihre Arbeit noch besser durchführen zu können.
Websuchmaschinen: Arten
Suchmaschinen bilden das Internet der Vergangenheit ab, d.h. alle Suchmaschinen antworten auf eine Suchanfrage, indem sie Wissen über den Zustand des Internets aus der Vergangenheit nutzen. Es gibt drei Arten von Suchmaschinen: Indexbasierte -, Meta-, und Spezialsuchmaschinen.
Damit eine Indexbasierte Suchmaschine Ergebnisse zu einer Suchanfrage liefern kann, muss sie vorher möglichst viele Webseiten untersucht haben. Dazu arbeitet sie in drei Schritten: Beim Crawling versucht die Suchmaschine bisher unbekannte Webadressen (URL) zu erfahren, indem diese auf schon bekannten Seiten verlinkt sind, oder indem diese direkt manuell der Suchmaschine gemeldet wurden [ERL2006 S. 105]. Alle gängigen Suchmaschinen haben für diesen Zweck Anmeldeformulare, z.B. Google unter der Adresse: http://www.google.de/addurl/. Im zweiten Schritt besucht und analysiert die Suchmaschine die Seiten und legt alle relevanten Informationen, die in ein für die Verarbeitung günstiges Format umgewandelt wurden, in einer riesigen Datenbank ab. Anhand dieser Datenbank erstellt die Suchmaschine einen Index, also eine sortiere Liste aller relevanten Wörter. Anhand dieser Liste können zukünftige Suchanfragen in akzeptabler Zeit beantwortet werden. Der letzte Schritt besteht im Empfangen der Suchanfrage eines Nutzers, die an eins der vielen Datencenter[vgl. GOO2009] weitergegeben werden. Diese Datacenter bearbeiten die Suchanfrage und geben die Serps in Form einer Ergebnisliste an den Nutzer zurück. Dabei werden alle Seiten, die relevante Informationen enthalten, gesammelt und nach einem geheimen Algorithmus sortiert. Die Funktion, die diese Sortierung vornimmt, bestimmt maßgeblich die Qualität der Suchmaschine.
Im Gegensatz zu den Index-Suchmaschinen haben Metasuchmaschinen keine eigene Datenbasis, sondern senden die Anfrage von Nutzern parallel an verschiedene andere Suchmaschinen und kombinieren deren Ergebnisse nach einem eigenen Algorithmus. Die Metasuchmaschine sollte dabei Dubletten, also Ergebnisse, die mehrfach vorkommen, löschen [ERL2006 S. 30f]. In der Vergangenheit gab es etliche Metasuchmaschinen, die heute allerdings keine Bedeutung mehr haben.
Zur dritten Art von Suchmaschinen zählen alle sonstigen Suchmaschinen im weitesten Sinne, wie z.B. Webkataloge oder experimentelle Suchmaschinen. Eines dieser Experimente ist z.B. die P2P – Suchmaschinen OpenCola, bei dem jeder Teilnehmer einen Teil des Indexes auf seinem lokalen Rechner speichert [ERL2006 S. 18].
In diesem Artikel wird es ausschließlich um Indexbasierte Suchmaschinen gehen, weil alle andere Arten heute praktisch keine Bedeutung mehr haben. Wie im Abschnitt: Marktanteil der Suchmaschinen zu sehen ist, ist der Marktanteil all dieser Nicht-Indexbasierten-Suchmaschinen zusammen weit unter zwei Prozent und damit vernachlässigbar.
Marktanteil der Suchmaschinen
Im Gegensatz zu anderen Ländern ist Google in Deutschland die mit Abstand verbreitetste Suchmaschine. Die in angegebenen 89,1 % täuschen über die wahre Dominanz von Google hinweg, weil unter anderem die Suchfunktionen von T-Online, AOL und Freenet auf die Googlesuche zurückgreifen, d.h. In Deutschland hat Google mit weit über 90% eine marktbeherrschende Stellung.
Probleme und Grenzen
Suchmaschinen leiden unter einer Vielzahl an Problemen aus den verschiedensten Bereichen, die es ihnen sehr schwer machen, ihre Arbeit gut erledigen zu können. Zu diesen Problemen gehört u.a. das Phänomen DeepWeb, das Suchmaschinen nicht gestattet in Bereiche von Webseiten vorzudringen, die hinter einem Login verborgen sind. Die Firma BrightPlanet.com hat in einer Untersuchung festgestellt, dass 500mal mehr Informationen im DeepWeb liegen, als im öffentlichen Internet [BRI2009 s.19].
Das zweite große Problem für Suchmaschinen sind die riesigen Datenmengen, die im Internet zu finden sind. Diese Datenmengen müssen von der Suchmaschine gespeichert werden, was enorme Kosten für Speicher verursacht. Stellt der Nutzer eine Suchanfrage an die Suchmaschine so ist eine gewaltige Rechenleistung nötig, um eine Suche über solche Datenmengen zu gewährleisten. Das dritte Problem, das sich aus der Datenmenge ergibt ist die Aktualität, d.h. eine Suchmaschine möchte keine veralteten Informationen liefern und müssen deshalb die riesigen Datenmengen regelmäig auf ihre Existenz überprüft werden, d.h. die Suchmaschine ist gezwungen nahezu das ganze Internet als Kopie zu speichern. All diese Probleme zwingen die Suchmaschinenbetreiber, die Datenmenge virtuell zu reduzieren: Beispielsweise werden Webseiten, die mehrfach im Internet vorkommen, von Google nur einmal indexiert. Das Wort “mehrfach” bedeutet nicht zwingend, dass beide Seiten identisch sein müssen. Es reicht bereits, wenn der Google-Algorithmus eine starke Ähnlichkeit erkennt.
Als problematisch erweist sich auch das Datenverständnis. Wenn ein Nutzer einen Suchbegriff eingibt, der in mehreren völlig verschiedenen Themenbereichen zu finden ist (z.B. der Begriff Biker wird gleichermaßen für Radfahrer wie auch für Motorradfahrer verwendet). In solchen Fällen müssen Suchmaschinen Ergebnisse aus allen Bereichen ausgeben.
Ein weiteres Suchmaschinenproblem liegt in der Aktualität von Daten. So könnte es passieren, dass in den Ergebnislisten veraltete Preise von Online-Shops zu finden sind, weil Google die Seite nach der Preisänderung nicht erneut untersucht hat [KOC2007 S.36f].
Manipulationsversuche von Webseitenbesitzern sind das aktuell größte Problem für die Qualität der Ergebnisse. Es wird versucht, der Suchmaschine Relevanz zum gewünschten Thema vorzugaukeln, um in den Ergebnislisten besser platziert zu sein und dadurch mehr Besucher auf die eigene Webseite zu locken. Ein großes juristisches Problem für international aktive Suchmaschinen wie Google sind unterschiedliche Rechtsprechungen in verschiedenen Ländern. Beispielsweise gibt es Probleme in Ländern, die eine zensierter Presse haben, wenn die Einwohner durch Google Zugriff auf Informationen bekommen, die eigentlich verboten sind.
Ein großes Problem hat Google im Zusammenhang mit Datenschutz. Um vor allem ihre Anzeigen möglichst gut an die Interessen der Nutzer anzupassen sammelt Google soviele Daten wie möglich. Dazu gehört z.b. die Überwachung des Email-Verkehrs (Google Mail) oder die Speicherung von Suchanfragen der Nutzer [HEI2006].
Quellenangaben
[BRI2009] BrightPlanetWhitepaper der Firma BrightPlanet.com zur DeepWebanalyse, original von 2000 – überarbeitet 2009
[ERL2006] Sebastian Erlhofer: Suchmaschinenoptimierung für Webentwickler 2.Auflage, Galileo Computing, 2006
[GOO2009] Google: Meine Website schneidet in den Suchergebnissen nicht gut ab, erstellt: 15.09.2009, zugegriffen 12.11.2009
[HEI2006] Heise C´t, erstellt: okt 2006, zugegriffen: 21.01.2010
[KOC2007] Daniel Koch: Suchmaschinenoptimierung, Addison Wesley 2007
[KON2008] Stathis Konstantinidis: Effektives Seo-konzept für junge Unternehmen, Grin Verlag 2008
[WEB2009] Webseite der Firma Webhits, erstellt unbekannt, zugegriffen:17.12.2009
Kommentare