Als robots.txt wird eine Textdatei bezeichnet, die für den Aufbau eines Internetprojektes eine große Bedeutung besitzt. Mithilfe dieser Datei kannst du festlegen, welche Verzeichnisse und Unterseiten von der Suchmaschine indexiert werden dürfen und welche von diesem Vorgang ausgeschlossen bleiben. Als Webmaster hast du mit der Datei robots.txt die Möglichkeit, das Crawlen ganz bewusst zu steuern. Für den Ausschluss aus der Indexierung können mehrere Gründe sprechen. Häufig handelt es sich um Websites, die sich noch im Aufbau befinden oder Unterseiten mit privaten Inhalten.