Mit diesem kostenlosen Online-Tool können Sie eine optimale robots.txt Datei für Ihre Website erstellen. Die robots.txt Datei gibt Suchmaschinen und anderen Web-Crawlern Anweisungen, welche Bereiche Ihrer Website gecrawlt und indexiert werden dürfen und welche nicht.
Die robots.txt Datei ist eine Textdatei, die im Stammverzeichnis Ihrer Website platziert wird und Anweisungen für Web-Crawler (wie Suchmaschinen-Bots) enthält. Sie folgt dem Robots Exclusion Protocol und gibt an, welche Teile Ihrer Website gecrawlt werden dürfen und welche nicht.
Eine korrekt konfigurierte robots.txt Datei hilft Ihnen:
Gibt an, für welchen Bot die folgenden Regeln gelten:
User-agent: *
- Gilt für alle BotsUser-agent: Googlebot
- Gilt nur für GoogleUser-agent: Bingbot
- Gilt nur für BingGibt an, welche Pfade nicht gecrawlt werden sollen:
Disallow: /admin/
- Blockiert den /admin/ OrdnerDisallow: /private/
- Blockiert den /private/ OrdnerDisallow:
(leer) - Erlaubt allesDisallow: /
- Blockiert die gesamte WebsiteGibt an, welche Pfade gecrawlt werden dürfen (überschreibt Disallow-Regeln):
Allow: /public/
- Erlaubt den /public/ Ordner, auch wenn ein übergeordneter Ordner blockiert istGibt den Standort Ihrer XML-Sitemap an:
Sitemap: https://www.example.com/sitemap.xml
Gibt an, wie viele Sekunden ein Bot zwischen Anfragen warten soll (nicht von allen Suchmaschinen unterstützt):
Crawl-delay: 10
- Bot soll 10 Sekunden zwischen Anfragen warten