Applikation Service Provider
Begriffs Ranking
CC
CC System
CC System Online
CR
CRM
CRM System
CRM System Online
CR System
CR System Online
Customer Care Management
Customer Care Management System
Customer Care Management System Online
Customer Relations Management
Customer Relations Management System
Customer Relations Management System Online
Data Warehouse
Data Warehousing
Dienstleistungs-Ranking
Internet Ranking
Internetseiten Marketing
Internetseiten Marketing
Internet Ranking
Keyword Marketing
Keyword
Keywords
Keyword Marketing
Keyword Optimierung
Koblenz
Kundenbeziehungsmanagement Online
Kundenbindungsinstrument Online
Kundenbindung Online
Limburg
Mainz
Montabaur
Natural Listings
Onlineshop
Online Shop
Pagerank
Produkt Ranking
Ranking
Ranking und Marketing
Ranking Optimierung
Search Engine Marketing
Seach Engine Optimization
SEO
Shopsystem
Shop System
Suchbegriff Ranking
Suchmaschinen Marketing
Suchmaschinen Optimierung
Suchmaschinen Begriffs Ranking
Suchmaschinen Dienstleistungs Ranking
Suchmaschinen Internet Ranking
Suchmaschinen Internet Firmen Ranking
Suchmaschinen Internet Ranking
Suchmaschinen Unternehmens Ranking
Suchmaschinen Online Marketing
Suchmaschinen Optimierung
Suchmaschinen Produkt Ranking
Suchmaschinen Ranking
Suchmaschinen Ranking Bad Camberg
Suchmaschinen Ranking Diez
Suchmaschinen Ranking Idstein
Suchmaschinen Ranking Koblenz
Suchmaschinen Ranking Limburg
Suchmaschinen Ranking Mainz
Suchmaschinen Ranking Montabaur
Suchmaschinen Ranking Wiesbaden
Suchmaschinen Suchbegriff Ranking
Systemanbieter
Systementwickler
Systemintegrator
Web Promotion
Webpromotion
Web-Promotion
Wiesbaden

Search Engine Marketing (SEM) und Search Engine Optimization (SEO)

Relevante Informationen zu liefern bedeutet jedoch, dass die SE sich zwangsläufig herausnehmen muss, Websites nach Relevanz, bzw. Qualität zu bewerten. Schließlich wird bei mehr als 4 Milliarden Websites diese Arbeit kaum ein redaktionelles Team übernehmen und dann kostenlos anbieten können, zumal inner-halb kürzester Zeit Milliarden von Informationen erneuert und aktualisiert werden müssen. SEs, wie auch die derzeit erfolgreichste, Google , benutzen daher speziell entwickelte Algorithmen zur automatischen Bewertung von Websites. Der zunehmende Konkurrenzdruck zwischen den SE-Anbietern, veranlasst die SE-Unternehmen außerdem ihre Inhalte dem User stets noch relevanter und gerechter darzubieten. Während SEs versuchen Inhalte so zuverlässig wie möglich zu bewerten, ist inzwischen eine neue Branche genannt Search Engine Marketing (SEM) gewachsen, die sich zum Ziel gemacht hat ihre Kundenauftritte für SEs zu optimieren. Wer das nötige finanzielle Werbebudget zur Verfügung hat, der kann natürlich durch bezahlte Werbung sein Unternehmen im Internet repräsentieren. Durch Kooperationen mit Partnern, Werbebannern in hochbesuchten Internet-Portalen, Newsletter, Gewinnspiele oder durch Sponsored Links in SEs, gibt es zahlreiche Möglichkeiten der Investierung, um Werbung in Sichtnähe des Kunden zu bringen. Eine weitere Möglichkeit auf seine Website aufmerksam zu machen, ist aber die hohe Platzierung in SEs, wenn der User nach bestimmten Keywords sucht. Laut der Studie des IAB Research, hatte bereits im Jahre 2002 die Keyword-Suche 21% aller Internet-Werbeumsätze gemacht und sich zum Vorjahr 2001 um 250% gesteigert. Somit kommt der Keyword-Suche in SEs nebst den klassischen Internet-Marketing-Methoden wie Bannerwerbung eine ganz besondere und hohe Bedeutung zu. Da der Benutzer durch seine Suchanfrage sein klares Interesse an einem bestimmten Produkt bekundet, zielt SEM darauf ab, die exakte Zielgruppe ohne Streuverluste, die beispielsweise bei der klassischen Bannerwebung entstehen, anzusprechen.

Sponsored Links

Unternehmen, die bei SEs um jeden Preis im wahrsten Sinne des Wortes eine hohe Position bei der Auflistung der Suchergebnisse zugeteilt haben möchten, haben die Möglichkeit eine Position der Auflistung bezogen auf die Search Query zu kaufen. Die Sponsored Links werden jedoch, um dem Suchenden keine falschen Bewertungskriterien zu geben, separat auch als solche kenntlich gemacht. Sucht also ein User nach einem bestimmten Begriff, werden die gekauften Positionen gekennzeichnet, wie bei Google beispielsweise mit dem Zusatz "Sponsored Links", oder auf der deutschen Google-Seite als "Anzeige".

Natural Listings

Wer ohnehin einen sehr bekannte und vor allem von anderen Websites verwiesenen Webauftritt betreibt (z.B. große Unternehmensportale wie faz.de, heise.de, reisen.de u. ä.), der wird automatisch im Ranking der SE hoch bewertet und bei bestimmten Queries oben aufgelistet. Eine gut platzierte Website in einer SE hat den Vorteil, dass sie nichts kostet und trotzdem durch Keywords gefunden wird. Hierbei blieb bislang das Problem des Spammings weitgehend von den Medien unbeachtet. Spätestens der Artikel "Google zugemüllt" vom Heise Verlag löste eine Lawine zahlreicher neuer Gesprächsthemen rund um das Thema Spamming und Google aus, die die Suchprinzipien und Algorithmen von SEs, speziell von Google zunehmend in Frage stellen. Beispiel: Sucht ein Benutzer ein Rezept für amerikanische Cookies bei Google.de und gibt hierzu als Suchanfrage "Rezept Cookies" ein, erscheinen mehrere Websites, die dazu einladen eine .EXE-Datei downzuloaden, die mit dem Rezept nichts zu tun haben, sondern den Benutzer dazu verleiten sich durch eine überteuerte 0190-Nummer ins Internet einzuwählen. Um trotzdem auf natürliche Weise bei den SEs hoch aufgelistet zu werden, ohne dabei als Spammer aus dem Index ausgeschlossen zu werden, werden beim SEM verschiedene Methoden angewandt. SEM umfasst beide Methoden: Sowohl im Bereich Sponsored Links, als auch im Natural Listings versucht es Websites so zu optimieren, dass sie im Web gefunden werden. Definition SEM - Search Engine Marketing (zu deutsch: Suchmaschinenmarketing), umfasst alle Maßnahmen, die dazu beitragen, dass Inhalte von Websites auf Basis des Protokolls HTTP in populären Search Engines bei einer Suchanfrage effizient aufgelistet werden. SEO - Search Engine Optimization (zu deutsch: Suchmaschinenoptimierung) sind Maßnahmen innerhalb der Ziel-Website, die dazu beitragen, dem SEM den nötigen technischen Rahmen zu liefern. (Beispielweise durch Anpassung der HTML-Inhalte, bewusste Integration von Keywords, Einsatz von SEO-Software, etc.)

PageRank

(nach einem seiner Erfinder, Lawrence Page und von engl. rank - Rang) ist das von der Internet-Suchmaschine Google genutzte System für die Bewertung der gelisteten Seiten. Es geht ursprünglich auf den von den Google-Gründern entwickelten PageRank-Algorithmus zurück. Das Grundprinzip lautet: Je mehr Links auf eine Seite verweisen, um so wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, um so größer der Effekt. Der von Google angezeigte PageRank liegt zwischen 0 und 10. Normale Webseiten haben einen Rank von 1-5. Wichtige oder speziell optimierte Seiten erreichen Werte von 5-7. Seiten mit einem PageRank von 8 und höher sind sehr selten, z.B. die des Weißen Hauses, die Firmenseite von Microsoft oder Wikipedia. Früher hatte ein hoher PageRank eine deutlich gehobene Positionierung in den Suchergebnissen bei Google zur Folge. Nach dem Jahreswechsel 2003/2004 ist nach einigen Änderungen dieser Effekt nicht mehr so stark zu spüren. Es ist eher eine Stabilisierung der Position von hoch bewerteten Seiten in der Trefferliste zu vermerken. Dennoch bringt ein hoher PageRank Vorteile für eine Webseite. So spidert Google z.B. Webseiten mit einem hohen PageRank öfter und tiefer.

Suchmaschinen-Optimierung

Methoden der Suchmaschinen-Optimierung (Abkürzung: SEO für (engl.) Search engine optimization) versuchen Webseiten einer Internetpräsenz in den Ergebnisseiten von Suchmaschinen auf vorderen Plätzen erscheinen zu lassen, wenn Benutzer der Suchmaschine nach Begriffen suchen, zu denen diese Internetpräsenz relevante Inhalte bietet. Suchmaschinen-Optimierung bezeichnet auch die Tätigkeit von Firmen und Beratern, die anbieten, Webseiten für Suchmaschinen zu optimieren und für Vernetzung der Internetpräsenz durch Verlinkung im Web zu sorgen. Andere häufig benutzte Begriffe mit ähnlicher Bedeutung sind Internet-Marketing, Online-Markteting und Webpromotion. Suchmaschinen-Optimierung berücksichtigt, wie Webcrawler der Suchmaschinen Webseiten aufsuchen, deren Inhalte lesen und verarbeiten, und nach welchen Kriterien Webseiten bewertet und Suchergebnisse zusammengestellt und sortiert werden (Ranking). Die Arbeitsweise der Sortieralgorithmen wird von den Betreibern der Suchmaschinen geheim gehalten und häufig geändert, um Missbrauch zu erschweren und dem Benutzer nur wirklich relevante Ergebnisse zu bieten. Auf sie muss deshalb durch die Analyse der Suchergebnisse geschlossen werden. Das Aufsuchen und Einlesen der Inhalte von Webseiten folgt dagegen bekannten Standards des Web, deren Einhaltung bei der Erstellung von Webseiten der erste und wesentliche Schritt einer Optimierung darstellt. Methoden, die nicht relevante Webseiten auf vordere Plätze der Ergebnisseiten von Suchmaschinen bringen, werden als Suchmaschinen-Spamming bezeichnet, sie verstoßen gegen Regeln, die Suchmaschinen zum Schutz vor Manipulationen ihrer Suchergebnisse aufstellen. Ethisch einwandfreie Suchmaschinen-Optimierung vermeidet Spamming. Eine Suchmaschine ist ein Programm zur Recherche von Dokumenten, die in einem Computer oder einem Computernetzwerk wie z. B. dem World Wide Web gespeichert sind. Nach Eingabe eines Suchbegriffs liefert eine Suchmaschine eine Liste von Verweisen auf möglicherweise relevante Dokumente, meist dargestellt mit Titel und einem kurzen Auszug des jeweiligen Dokuments. Dabei können verschiedene Suchverfahren Anwendung finden. Die wesentlichen Bestandteile bzw. Aufgabenbereiche einer Suchmaschine sind · Erstellung und Pflege eines Indexes (Datenstruktur mit Informationen über Dokumente), · Verarbeiten von Suchanfragen (Finden und Ordnen von Ergebnissen) sowie · Aufbereitung der Ergebnisse in einer möglichst sinnvollen Form. In der Regel erfolgt die Datenbeschaffung automatisch, im WWW durch Webcrawler, auf einem einzelnen Computer durch regelmäßiges Einlesen aller Dateien in vom Benutzer spezifizierten Verzeichnissen im lokalen Dateisystem.

Arten von Suchmaschinen

Websuchmaschinen sind die bekannteste Form von Suchmaschinen. Sie durchsuchen das World Wide Web, das meistgenutzte Dateiformat ist hierbei HTML. Metasuchmaschinen schicken Suchanfragen parallel an mehrere normale Suchmaschinen und kombinieren die Einzelergebnisse zu einer Ergebnisseite. Als Vorteil ist die größere (da kombinierte) zugrundeliegende Datenmenge zu nennen. Ein Nachteil ist die lange Dauer der Anfragebearbeitung. Außerdem ist das Ranking durch reine Mehrheitsfindung (welche Seite taucht in den meisten verwendeten Suchmaschinen auf?) von fragwürdigem Wert. Metasuchmaschinen sind vor allem bei selten vorkommenden Suchbegriffen von Vorteil. Als Desktop-Suchmaschine werden neuerdings Programme bezeichnet, welche den lokalen Datenbestand eines einzelnen Computers durchsuchbar machen. Wird die Datenbeschaffung manuell mittels Anmeldung oder durch Lektoren vorgenommen, handelt es sich nicht um eine Suchmaschine sondern um einen Katalog (auch Verzeichnis genannt). In solchen Verzeichnissen wie beispielsweise Yahoo! und dem Open Directory Project sind die Dokumente hierarchisch in einem Inhaltsverzeichnis nach Themen organisiert. So genannte Echtzeit-Suchmaschinen starten den Indexierungsvorgang erst nach einer Anfrage. So sind die gefundenen Seiten zwar stets aktuell, die Qualität der Ergebnisse ist aber aufgrund der fehlenden breiten Datenbasis insbesondere bei weniger gängigen Suchbegriffen schlecht.

Ranking

Die Darstellung der Suchergebnisse geschieht sortiert nach Relevanz (Ranking), wofür jede Suchmaschine ihre eigenen, meist geheim gehaltenen Kriterien heranzieht. Dazu gehören: · Häufigkeit und Stellung der Suchbegriffe im jeweiligen gefundenen Dokument. · Einstufung und Anzahl der zitierten Dokumente. · Häufigkeit von Verweisen anderer Dokumente auf das im Suchergebnis enthaltene Dokument sowie in Verweisen enthaltener Text. · Einstufung der Qualität der verweisenden Dokumente (ein Link von einem "guten" Dokument ist mehr wert als der Verweis von einem mittelmäßigen Dokument). Größere Bekanntheit erlangt hat PageRank, eine Komponente des Ranking-Algorithmus' der erfolgreichen Suchmaschine Google. Manche Suchmaschinen sortieren Suchergebnisse nicht nur nach Relevanz für die Suchanfrage, sondern lassen gegen Bezahlung auch Einflussnahme auf ihre Ausgabe zu. In den letzten Jahren hat sich allerdings bei den großen Anbietern eine Trennung zwischen Suchergebnissen und als "bezahlte Treffer" markierte eingeblendeter Werbung durchgesetzt. Die "bezahlten Treffer" werden kontextbezogen zur Suchanfrage ausgegeben. Geschichte Archie kann als ältester Vorfahre der heute allseits bekannten Suchmaschinen und Webverzeichnisse angesehen werden. Der erste Vorläufer der heutigen Suchmaschinen war eine im Jahr 1991 an der University of Minnesota maßgeblich von Paul Lidner und Mark P. McCahill entwickelte Software namens Gopher. Sie wurde als Campuswide Information System (CWIS) zur Vernetzung der dortigen Informationsserver entwickelt und basiert auf dem Client/Server-Modell. Die Struktur von Gopher war für den damaligen Zeitpunkt richtungsweisend; alle Gopher-Seiten wurden katalogisiert und konnten vom Gopher-Sucher Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) komplett durchsucht werden. Allerdings verschwand Gopher schon einige Jahre später, vermutlich vor allem wegen der fehlenden Möglichkeit, Bilder und Grafiken einzubinden. Mit der Freigabe des www-Standards zur kostenlosen Nutzung 1993 und einer handvoll Webseiten begann die einzigartige Erfolgsgeschichte des weltweiten Datennetzes. Der erste Such-Robot namens The Wanderer wurde im selben Jahr von einem Studenten des Massachusetts Institute of Technology (MIT) namens Mathew Gray programmiert. The Wanderer durchsuchte und katalogisierte von 1993 bis 1996 halbjährlich das zu dieser Zeit noch sehr übersichtliche Netz; im Juni 1993 wurden insgesamt 130 Webseiten gezählt. Im Oktober des gleichen Jahres wurde der Archie-Like Indexing of the Web (Aliweb) entwickelt, bei dem die Betreiber von www-Servern eine Beschreibung ihres Services in einer Datei ablegen mussten, um so ein Teil des durchsuchbaren Indexes zu werden. Im Dezember 1993 gingen die Suchmaschinen Jumpstation, WorldWideWeb Worm und RBSE Spider ans Netz. Die beiden erstgenannten waren Robots, die Webseiten nach Titel und URL indizierten. RBSE Spider war die erste Suchmaschine, die ihre Ergebnisse in einem eigenen Ranking-System sortiert anzeigte. Keine dieser Suchmaschinen bietet heute noch seine Dienste an. Im April 1994 ging eine weitere Suchmaschine namens WebCrawler online, die ebenfalls eine nach Ranking sortierte Trefferliste vorweisen konnte. 1995 wurde die Suchmaschine an AOL verkauft und ein Jahr später weiter an Excite. Im Mai begann die Arbeit von Michael Mauldins an der Suchmaschine Lycos, die im Juli 1994 online ging. Neben der Worthäufigkeit der Suchbegriffe innerhalb der Webseiten durchsuchte Lycos auch die Nähe der Suchbegriffe untereinander im Dokument. Im selben Jahr riefen David Filo und Jerry Yang, beide damals Studenten des Fachbereichs Electrical Engineering an der Stanford University, eine Sammlung ihrer besten Web-Adressen in einem online verfügbaren Verzeichnisdienst ins Leben - die Geburtsstunde von Yahoo! - dem Akronym für "Yet Another Hierarchical Officious Oracle". Das Jahr 1995 sollte eine bedeutende Trendwende für die erst kurze Geschichte der Suchmaschinen werden: In diesem Jahr wurden erstmals Suchmaschinen von kommerziellen Firmen entwickelt. Aus diesen Entwicklungen entstanden Infoseek, Architext (wurde später in Excite umbenannt) und Alta Vista. Ein Jahr später wurde Inktomi Corp. gegründet, dessen gleichnamige Suchmaschine zur Grundlage von Hotbot und anderen Suchseiten wurde. Führend in dieser Zeit war der Verzeichnisdienst von Yahoo, aber AltaVista - eine Mischung aus etwa "Blick von oben" und dem Wortspiel (Palo) Alto-Vista - wurde zunehmend populär. 1996 war das Startjahr von zwei Metasuchmaschinen. MetaCrawler erblickte in den USA das Licht der Welt und - in Deutschland - MetaGer. Bis zur Marktdurchdringung von Google galten Metasuchmaschinen als eine der interessantesten Informationsbeschaffer, da der Suchindex der Suchmaschinen meist nur Teilbereiche des Internets enthielt. Metasuchmaschinen leiten die Abfragen des Nutzers parallel an mehrere Suchmaschinen weiter und fassen die Treffer formatiert zusammen. Ende 1998 veröffentlichten Larry Page und Sergey Brin ihre innovative Suchmaschinen-Ranking-Technologie mit dem Titel "The Anatomy of a Large-Scale Hypertextual Web Search Engine". Diese Arbeit stellte den Startschuss für die bisher erfolgreichste Suchmaschine der Welt dar: Google. Im September 1999 erreichte Google Beta-Status. Die geordnete Benutzeroberfläche, die Geschwindigkeit und die Relevanz der Suchergebnisse bildeten die Eckpfeiler auf dem Weg, die Computer-erfahrenen Nutzer für sich zu gewinnen. Ihnen folgten in den nächsten Jahren bis heute Scharen von neuen Internetbenutzern. Doch Google dominiert den Suchmaschinenmarkt nicht allein, durch spektakuläre Aufkäufe im Frühjahr 2003 sicherte sich Yahoo den Anschluss in diesem Marktsegment. Seit 2004 gibt es nach einigen Firmenübernahmen nur mehr drei große (bezogen auf die Anzahl erfasster Dokumente) indexbasierte Websuchmaschinen. Neben Google sind dies Yahoo! Search und Microsofts MSN Search. Herausforderungen Mehrdeutigkeit - Suchanfragen sind oft unpräzise. So kann die Suchmaschine nicht selbständig entscheiden, ob beim Begriff Laster nach einem LKW oder einer schlechten Angewohnheit gesucht werden soll. Umgekehrt sollte die Suchmaschine nicht zu stur auf dem eingegebenen Begriff bestehen. Sie sollte auch Synonyme einbeziehen, damit der Suchbegriff Rechner Linux auch Seiten findet, die statt Rechner das Wort Computer enthalten. Weiterhin wird oft Stemming verwendet, dabei werden Wörter auf ihren Grundstamm reduziert. So ist einerseits eine Abfrage nach ähnlichen Wortformen möglich (schöne Blumen findet so auch schöner Blume), außerdem wird die Anzahl der Begriffe im Index reduziert. Eine deutsche Suchmaschine, die sich mit dem Problem der Mehrdeutigkeit befasst, ist Seekport. So ergibt die Suche nach dem Begriff "Laster" eine Rückfrage, die eine gezielte Verzweigung der Suche erlaubt: http://www.seekport.de/q?query=Laster . Datenmenge - Das Web wächst schneller als die Suchmaschinen mit der derzeitigen Technik indexieren können. Dabei ist der den Suchmaschinen unbekannte Teil - das sogenannte Deep Web - noch gar nicht eingerechnet. Aktualität - Viele Webseiten werden häufig aktualisiert, was die Suchmaschinen zwingt, diese Seiten immer wieder zu besuchen. Dies ist auch notwendig, um zwischenzeitlich aus der Datenbasis entfernte Dokumente zu erkennen und nicht länger als Ergebnis anzubieten. Das regelmäßige Herunterladen der mehreren Milliarden Dokumente, die eine Suchmaschine im Index hat, stellt große Anforderungen an die Netzwerkressourcen (Traffic) des Suchmaschinenbetreibers. Spam - Mittels Suchmaschinen-Spamming versuchen manche Website-Betreiber, den Ranking-Algorithmus der Suchmaschinen zu überlisten, um eine bessere Platzierung für gewisse Suchanfragen zu bekommen. Sowohl den Betreibern der Suchmaschine als auch deren Kunden schadet dies, da nun nicht mehr die relevantesten Dokumente zuerst angezeigt werden. Technisches - Suche auf sehr großen Datenmengen so umzusetzen, dass die Verfügbarkeit hoch ist (trotz Hardware-Ausfällen und Netzengpässen) und die Antwortzeiten niedrig (obwohl oft pro Suchanfrage das Lesen und Verarbeiten mehrerer 100 MB Index-Daten erforderlich ist), stellt große Anforderungen an den Suchmaschinenbetreiber. Systeme müssen sehr redundant ausgelegt sein, zum einen auf den Computern vor Ort in einem Rechenzentrum, zum anderen sollte es mehr als ein Rechenzentrum geben, welches die komplette Suchmaschinenfunktionalität anbietet. Rechtliches - Suchmaschinen werden meist international betrieben und bieten somit Benutzern Ergebnisse von Servern, die in anderen Ländern stehen. Da die Gesetzgebungen der verschiedenen Länder unterschiedliche Auffassungen davon haben, welche Inhalte erlaubt sind, geraten Betreiber von Suchmaschinen oft unter Druck, gewisse Seiten von ihren Ergebnissen auszuschließen. Die deutschen Internet-Suchmaschinen wollen jugendgefährdende Seiten aus ihren Trefferlisten streichen durch Freiwillige Selbstkontrolle.

Meta-Suchmaschine

Eine Meta-Suchmaschine ist eine Suchmaschine, deren wesentliches Merkmal darin besteht, dass sie eine Suchanfrage an mehrere andere Suchmaschinen gleichzeitig weiterleitet, die Ergebnisse sammelt und aufbereitet. Dies geschieht durch die Eliminierung von Doubletten, die Bewertung der Ergebnisse und durch Aufstellung eines eigenen internen Rankings. Die Ergebnisse werden dann einheitlich, wie in einer Suchmaschine, dargestellt.

Webverzeichnisse

Im World Wide Web bezeichnet man Sammlungen von Adressen von Webseiten, die nach bestimmten Themen sortiert sind, als Verzeichnis oder als Katalog. Aufgabe und Funktion Webkataloge leisten für Online-Quellen das, was Bibliotheken für Print-Medien übernehmen: Sie sammeln und sichten Informationen, entwickeln Taxonomien und katalogisieren ihre Sammlungen. Zu den gesammelten Quellen zählen dabei nicht nur ganze Websites oder Newsgroups, sondern zusätzlich auch einzelne Dokumente und Datenbankeinträge. Über diese reine Bibliotheks-Funktion hinaus bieten Web-Verzeichnisse ihren Nutzern oft auch zusätzlichen Nutzen, wie · kurze Beschreibungen der einzelnen Kategorien und ihrer Inhalte · Querverweise zu verwandten Themen · Querverweise zu gleichen Themensammlungen in anderen Sprachen · eine auf bestimmte Themen beschränkbare Suchfunktion Weil Webverzeichnisse weniger Webseiten verzeichnen, als moderne Suchmaschinen, wird ihr Nutzen für den Internetbenutzer häufig angezweifelt.

Arten von Webkatalogen

Diese meisten heute bekannten Webkataloge werden manuell gepflegt, das heißt: Alle Einträge werden von Menschen gesichtet, geprüft und katalogisiert. Auf diese Art wird eine Qualität der Sammlung sichergestellt, welche mit einem automatisierten Prozess nicht zu erreichen wäre. Problematisch bei dieser Methode ist jedoch der hohe Aufwand und damit der große Bedarf an Mitarbeitern, um ein umfassendes und aktuelles Verzeichnis gewährleisten zu können. Oft beschränken sich manuell erstellte Verzeichnisse deshalb auf kleine, eng abgegrenzte Themengebiete. Bekannte Ausnahmen bilden der Yahoo!-Katalog oder das Open Directory Project. Ein anderer Ansatz zur Organisation von Linksammlungen besteht in der Bildung von Ad-hoc-Kategorien aus Suchbegriffen. Diese automatisch generierten Kataloge enthalten wesentlich umfangreichere und aktuellere Inhalte. In ihrer Qualität erreichen sie aber heute noch nicht das Niveau, welches bei der manuellen Sortierung besteht. Ein bekanntes Beispiel für Ad-hoc-Katalogisierung ist der WiseGuide des Suchdienstes WiseNut. Weiterhin kann unterteilt werden in hierarchische und nichthierarchische Webverzeichnisse. In hierarchischen Verzeichnissen werden Kategorien von Einträgen und oft die Einträge der Verzeichnisse selbst in einer eindeutigen Ordnung sortiert. Ein Eintrag befindet sich dabei oft nur in einer bestimmten Kategorie, was ihn schwer auffindbar macht. Ein Beispiel für ein sehr hierarchisches Webverzeichnis ist das Open Directory Project (Beispiele siehe Liste von Webverzeichnissen#Hierarchische Webverzeichnisse). Nichthierarchische Verzeichnisse bestehen dagegen aus einer Netzwerkartigen Struktur, mit deren Knoten die Einträge (Links) verknüpft werden. Dadurch sind die Einträge und Kategorien leichter zu finden, eine assoziative Suche ist eher möglich (Beispiele siehe Liste von Webverzeichnissen#Themennetzwerke). Weiter lässt sich zwischen kommerziellen und hauptsächlich nichtkommerziellen Webverzeichnissen unterscheiden. Durch das Geschäftsmodell vieler Webverzeichnisbetreiber besteht besonders bei ersteren die Gefahr einer eingeschränkten Objektivität: Die Erhöhung der Ranghöhe in einem Verzeichnis für die eigene Webseite wird zur offiziell angebotenen Dienstleistung (Beispiele siehe Liste von Webverzeichnissen). Der Benutzer kann nicht unterscheiden, welche Webseiten von sich aus einen hohen Rang und welche einen manipulierten haben. Probleme und Lösungsansätze Bei großen Datenbeständen besteht für Webverzeichnisse einerseits die Gefahr, dass nicht mehr existierende Webseiten referenziert werden. Andererseits leidet bei großen Datenbeständen die Wiederauffindbarkeit relevanter Webseiten. Um diesen Mängeln vorzubeugen, werden moderne Webverzeichnisse mit verschiedenen manuellen und automatischen Mechanismen ausgestattet, wie beispielsweise · manuelle Bewertungssysteme ("Voting") · automatische Bewertungssysteme ("Ranking") · Robots ("Webbots") zum Überprüfen und ggf. entfernen toter Links · Auswertung des Klickverhaltens der Benutzer

Click Popularity

Click Popularity, (englisch für "Klickbeliebtheit") ist ein Begriff im Search Engine Marketing, d.h. der Vermarktung von Suchmaschinen. Bei Click Popularity handelt es sich um ein Ranking-System (System zur Bestimmung der Ergebnisrangfolge) in Suchmaschinen, das das Verhalten der suchenden Benutzer auswertet. Dabei wertet das System u.a. aus, wie lange ein Benutzer auf der Zielwebseite bleibt und dann wieder zur Suche zurückkehrt. Wenn beispielsweise viele Benutzer nach einer Suche nur kurz bei einer Webseite A bleiben, schlussfolgert die Suchmaschine, dass diese Webseite A scheinbar nicht relevant zur Suchanfrage war und wertet diese ab. Die Meinungen zu Click Popularity gehen auseinander. Die Resultate der Suchmaschine können bei der Bewertung oft sehr ungenau sein. Anbieter von Suchmaschinen wie Yahoo, Lycos und AltaVista verwenden Click Popularity. Es wird allerdings nur als Zusatzkriterium nicht als Basis für den Gesamtalgorithmus eingestuft. Der Marktführer Google berücksichtigt die Click Popularity nicht, denn als von außen beeinflussbares Kriterium ist es für Manipulationen anfällig.

Suchmaschinenmarketing

Suchmaschinenmarketing (Search Engine Marketing, SEM), umfasst alle Maßnahmen, die dazu beitragen, dass Webseiten in Suchmaschinen (wie zum Beispiel Google) bei einer Suchanfrage gut gefunden werden. Dabei spielt vor allem die Suchmaschinenoptimierung (Search Engine Optimization, SEO) eine wichtige Rolle.

Webcrawler

Ein Webcrawler (auch Spider oder robot) ist ein Computerprogramm, das automatisch das World Wide Web durchsucht und Webseiten analysiert. Webcrawler werden vor allem von Suchmaschinen eingesetzt. Weitere Anwendungen sind beispielsweise das Sammeln von Mailadressen oder anderen Informationen. Wie beim Internetsurfen gelangt ein Webcrawler über Hyperlinks von einer Webseite zu weiteren URLs. Dabei werden alle bisher bekannten Adressen gespeichert und der Reihe nach besucht. Die neu gefundenen Hyperlinks werden zur Liste aller URLs, hinzugefügt. Auf diese Weise können theoretisch alle erreichbaren Seiten des WWW gefunden werden. In der Praxis wird jedoch oft eine Auswahl getroffen und der Prozess wird irgendwann beendet und von vorne begonnen. Webcrawler sind eine spezielle Art von Bots und werden auch als Spinnen bezeichnet, da sie sich wie diese in einem Netz fortbewegen. Je nach Aufgabe des Webcrawlers wird der Inhalt der gefundenen Webseiten beispielsweise mittels Indexierung ausgewertet und gespeichert, um ein späteres Suchen in den so gesammelten Daten zu ermöglichen. Dabei werden verschiedene Ranking-Algorithmen eingesetzt. Webcrawler werden auch zum Data Mining und zur Untersuchung des Internets (Webometrie) eingesetzt und müssen nicht zwangsläufig auf das WWW beschränkt sein. Ein Großteil des gesamten Internets wird jedoch von Webcrawlern und damit auch mit bekannten Suchmaschinen nicht erfasst, da viele Inhalte nicht über einfache Links sondern beispielsweise nur über Suchmasken und zugangsbeschränkte Portale erreichbar sind. Man spricht bei diesen Bereichen auch vom "Deep Web". Mit Hilfe des Robots Exclusion Standards kann ein Webseitenbetreiber in der Datei robots.txt und in bestimmten Meta-Tags im HTML-Header einem Webcrawler mitteilen, welche Seiten er indexieren soll und welche nicht, sofern sich der Webcrawler an das Protokoll hält. Eine besondere Form von Webcrawlern sind Software-Agenten, bei denen eine Menge von autonomen Programmen das Web gemeinsam durchsuchen. Content by www.Wikipedia.de
Falls Sie nicht automatisch weitergeleitet werden klicken Sie bitte hier um zur Homepage zu gelangen:

%LF-Solutions GmbH%