Index

Index

Der Index von Suchmaschinen

Ein Index gibt Nutzern eine klare, strukturierte Übersicht über katalogisierte Informationen. Im normalen Alltag treffen Menschen vor allem bei Suchmaschinen im World Wide Web auf eine solche Auflistung. Dieser ordnet schlicht Ergebnisse nach einem klar definierten Regelwerk und erleichtert so die Suche nach bestimmten Themen. Dabei teilt sich die Analyse und Präsentation der angezeigten Einträge in mehrere Kategorien auf.

Crawler beschaffen notwendige Informationen

Als erste Rückmeldung wird dem Nutzer die SERP (Search Enginge Result Pages) als Folge einer Anfrage ausgegeben. Der eigentliche Prozess hinter der Suche bleibt dabei Anwendern verborgen. Die übersichtliche Liste soll seinem Ansinnen möglichst genau entsprechen und versucht daher nach Themenbezug zu filtern. Solche Rankings werden regelmäßig neu erstellt und mit Hilfe ausgeklügelter Programme, die auch Crawler genannt werden, aktualisiert. Diese vollständig autarken Bots besuchen auf eigene Faust unzählige Websites und analysieren deren Angebot und Inhalte. Nach Beendigung der Arbeit ordnen sie der Seite eine individuelle Relevanz zu, die auch in Abhängigkeit der Besucheranzahl und Zugänglichkeit stehen kann, zu. Besonderes Augenmerk legen sie auf Schlagwörter und Kombinationen derer, die ein Interessent bei Anfragen auf diese Seite lenken könnten. Alle gesammelten Informationen von Webseiten in millionenfacher Ausführung liegen auf gesicherten Servern der entsprechenden Suchmaschinenanbieter. Kurz: Die wissbegierigen Programme könnten einfachheitshalber als Agenten bezeichnet werden, die Daten ausspähen und diese zur Verarbeitung weiterleiten. Der nächste Schritt bei der Kartographie des Internets sieht die Erstellung eines PageRank vor. Durch diesen Filtermechanismus wird die Reihenfolge des Index festgelegt, die letztendlich Anwender auf ihrem Monitor zu Gesicht bekommen. Das genaue Prozedere unterliegt allerdings der Geheimhaltung. Ansonsten ließe sich der Ablauf möglicherweise zugunsten einiger Webseiten-Betreibern manipulieren. Für die erstmalige Kontaktaufnahme ist eine Suchmaschinenanmeldung Voraussetzung.

Zusammensetzung des Index

Eine Anfrage bezüglich eines beliebigen Begriffes führt bei Suchmaschinen wie Yahoo, Google oder Bing zu einer Auflistung aller registrierten Treffer. Der Bezug zu den Schlüsselwörtern ist dabei thematisch ausgelegt. Eine Massenauflistung von Keywords verspricht keine Aussicht auf Erfolg bei der Aufnahme in die vorderen Ränge eines Index. Dabei unterscheidet sich die Aufführung innerhalb des Rankings anhand von organischen und bezahlten Ergebnissen. Solche Angebote sind bei zahlreichen Anbietern üblich und werden in aller Regel eindeutig als gesponserte Verbindung markiert. Manche Betreiber greifen hierfür auf farbige Boxen zurück oder wählen für deren Positionierung ein abgetrenntes Segment. Meist sind noch entsprechende Hinweise vorhanden, die den dargebotenen Link als Anzeige oder bezahlten Listenplatz erkennbar machen.

Bezahlte Platzierung

Eingekaufte Ranglistenplätze sind im Fachjargon auch als Paid Index bekannt. Der feine Algorithmus der Suchmaschine und Informationsbeschaffung durch Crawler kommen hier nicht zum Tragen. Dadurch ersparen sich Inhaber von Webseiten eine teils mühevolle Arbeit im Kampf um das beste Rating. Vor allem kommerzielle Seiten wie Online-Shops greifen auf dieses Angebot zurück. Google AdWords repräsentiert das dafür ausgerufene Bezahlprogramm. Häufig genutzte Schlüsselwörter werden dabei gleich mehrfach verkauft. Der Bieter des höchsten Wortpreises kommt bei Nutzung des Keywords dann an erster Stelle. Strikt nach dieser Ordnung baut sich der Paid Index auf. Eine automatische Analyse entfällt durch dieses Verfahren also vollständig.

Organischer Inhalt

Für alle übrigen Seiten, die keinerlei Vorteil durch Zahlung mittels Google AdWords oder BingAds (Yahoo, Bing) erlangen möchten, bleibt die Sortierung nach einem vorgegebenen Mechanismus. Nachdem die Crawler entsprechende Informationen ausgelesen haben, wird eine Beurteilung der Inhalte und die damit einhergehende Platzierung im organischen Index vorgenommen. Die Resultate auf der ersten Seite bestehen aus Webseiten, die den größten Themenbezug und höchste Popularität erzielen. Für die gezielte Ausrichtung einer Webpräsenz an Suchmaschinen existiert ein eigenes Berufsfeld. SEO-Marketing beschäftigt sich in erster Linie damit, ein besseres Ranking innerhalb einer Suchmaschine zu erreichen. Dabei geht es nicht nur um die Platzierung bestimmter Schlüsselwörter, sondern auch um eine angemessene und Nutzerfreundliche Organisation der Inhalte. Technische Hürden und ein zu verschachteltes Design unter Nutzung diverser Script-Funktionen behindern ansonsten die Abtastung durch die Suchprogramme. Die Folge wäre ein unnötig schlechtes Ranking der betreffenden Seite.

Analyse und Optimierung in der Praxis

Um eine möglichst große Menge an potentiellen Besuchern zu erreichen, gilt es also, ohne aufwendige Suche erreichbar zu sein. Mit jeder weiteren Index-Seite nimmt die Anzahl der Aufrufe ab. Nutzer erwarten völlig zu Recht, dass die interessantesten Anlaufstellen in den vorderen Plätzen anzutreffen sind. Google bietet mit Hilfe der Google Search Console eine Funktion für die Weiterleitung neuer Webseiten zur Analyse und Aufnahme in den Index an. Wertvolle Punkte erhalten Seiten mit einem übersichtlichen Layout, das zudem im XML-Sitemaps-Format genau dokumentiert ist. Vor allem bei großem Umfang gehört eine saubere Strukturierung zu den wichtigsten Geboten aller Website-Konstrukteure.

Allgemein stehen für eine bessere Position im Index der einfache, kostspielige Weg oder der komplexe Gang mittels Optimierung per Hand offen. Der Paid Index verlangt kontinuierliche Gebote auf Schlüsselwörter und populären Kombinationen. Nur für den Zeitraum der Zahlung ist ein Index-Platz sicher. Der aufwendige Gegenpart kostet dafür mehr Mühen und benötigt ebenso sachverständige Unterstützung gegen Bezahlung. Dafür sind die Platzierungen nicht mehr an eine regelmäßig zu entrichtende Gebühr gebunden.

Organische Platzierungen erfordern ein hohes Maß an Zugänglichkeit, um nicht auf den hinteren Rängen zu verschwinden. Relevanz für Nutzer und Kompatibilität mit dem Crawler sind entscheidende Punkte, die es zu berücksichtigen gibt. Ein spezieller Eintrag in der Konfigurationsdatei Robots.txt gestattet den Spürhunden von Suchmaschinen überhaupt erst den Zutritt. Ähnlich verhält es sich auch mit der technischen Umsetzung. Verwendung von Scripts in Java, zu vielen Umleitungen und natürlich Fehler bei der Vernetzung von Unterseiten reduzieren die verwertbare Ausbeute eines Crawlers. Technische Richtlinien für Webmaster garantieren Betreibern von Webseiten eine optimale Unterbringung aller essentiellen Elemente. Viele Fehler lassen sich so vermeiden.

Nützliche Inhalte, die Fragen der Sucher beantworten, werden in den Rankings bevorzugt hervorgehoben. Eine leichte Navigation und übersichtlicher Einstieg in die angebotene Materie sind hier unverzichtbar. Je hochwertiger der Inhalt ist, desto höher steigt auch die Relevanz. Die Nutzung von Videos oder Grafiken zur besseren Veranschaulichung von Themengebieten können diesen Prozess unterstützen. Dabei muss das Anliegen von Besuchern möglichst gezielt und ohne Irrfahrten auf eine zufriedenstellende Antwort stoßen. Nicht umsonst gilt die Grundregel bei der Erstellung von Online-Inhalten: Schreibe niemals für die Suchmaschine, sondern für den Menschen.

Leave a Reply

Your email address will not be published.