Crawler

By Kevin

Der sogenannte Crawler (auch Spider oder Robot genannt) Ist ein Computerprogramm, das automatisch das WWW durchsucht und sämtliche Webseiten analysiert. Der Crawler verfolgt dabei Link für Link und hangelt sich so von Webseite zu Webseite, von URL zu URL.

Die Daten, die er dabei erfasst werden, werden nach einem bestimmten Algorithmus ausgewertet und sinnvoll in Datenbanken archiviert.

Diese Archive werden bei der Suchanfrage eines Nutzers über Google durchsucht und relevante Webseiten werden dem suchenden als Ergebnis präsentiert.

 

 

 

Top