Auch Crawler genannt, ist eine Art Computer, der alle Daten und Informationen einer Webseite „durchforstet“ und anhand von Kriterien prüft und gegebenenfalls bewertet. Mittels der robots.txt, NoIndex oder NoFollow können wir das Crawl-Verhalten steuern.