Freitag, 12. März 2010

Crawler Suchmaschine ( Robot Suchmaschinen)

Crawler Suchmaschine (Robot Suchmaschinen)

Suchmaschinen verfügen über einen Webrobot also eine Softwarekomponente die auch als Crawler genannt wird.

Eine Crawlersuchmaschine , wie Google,”crawls” oder “spiders” durch Ihre Website und alle seine in Verbindung stehenden Links. Dies heißt, der Spider wird sowohl ihre Webseite als auch alle Seiten ihrer Webseite lesen und alle Links folgen. Deswegen sollte es einer Suchmaschine theoretisch möglich sein das gesamte Internet in Ihren Datenbestand akzeptieren. Den Crawlers geht normalerweise zu Ihrer Website jeder Monat um nach Änderungen zu suchen. Wenn es irgendwie eine Veränderung in der Webseite gibt wird die Änderung gefunden und der Index wird aktualisiert. Die gefundene Links müssen Inhaltlich von einer Suchmaschinen verarbeitet und abgespeichert werden. Weil die Suchmaschinen die Linke zu hochwertigen Informationen anbieten können. Deswegen muss der Inhalt aller eingelesenen Webseiten bekannt und bewertbar ist. Dafür setzen die Suchmaschinen ein automatisches Softwareto olein.
Die Bewertung des Inhalts einer Webseite erfolgt somit voll automatisch ohne von den Menschen etwas zu tun. Das Eingreifen von Menschen (also z.B. das löschen einer Webseite durch eine Person) kann in der Regel nur bei groben Verstößen gegen die Regeln der jeweiligen Suchmaschine erfolgen.
Natürliche die Speicherung der Datenbestand läuft nicht in den gleichen Format der die Dokumente im Internet vorliegen. Weil die Suchmaschinen von den Speicher und Rechenkapazität sparen wollen benutzen Suchmaschinen Information Retrieval Systeme um Dokumente zu speichern und anhand der „Schlüsselwörter“ entsprechende Suchergebnisse zu liefern. (
Vgl http://www.ranking-abc.de/roboter.html Zugriff 02.03.2009)

Die Verwaltung der aufgenommenen Webseiten und Dokumente in den Suchmaschinen wird ebenfalls automatisch (also durch eine Software) verwaltet.

Der Index ist wie ein großer Katalog, der ein Exemplar jeder Webseite enthält, welche des Spiders im Cyberspace finden.

Wenn Sie ein Schlüsselwort eintippen, oder Phrase in eine Crawler-basierte Suchmaschine schreiben, wird die Suchmaschinen Software durch die Millionen der Seiten das Schlüsselwort suchen die auch im Index speichern. Danach gibt es Ihnen die Ergebnisse die am bekannteste zu Ihrer Suchanfrage passt.

Die meisten Crawler-basierte Suchmaschinen arbeiten auf diese Art mit geringfügigen Änderungen an der Software, an der Index-Bewegung: etc. Das ist, warum, wenn Sie die gleiche Abfrage in verschiedene Suchmaschinen schreiben, kriegen Sie unterschiedliche Resultaten (Quelle : Vgl http://www.ismartsoftware.com/ismart/images/PDF/SEO%20Explained.pdf Zugriff 02.03.20099)

Keine Kommentare:

Kommentar veröffentlichen