Online Robots.txt Generator

Kontrollieren Sie, wie Suchmaschinen Ihre Website crawlen. Erstellen Sie in Sekunden eine robots.txt-Datei.

Von Website laden

Geben Sie die Website-Adresse ein.

Allgemeine Einstellungen

Legt die Standardregel für "User-agent: *" fest.

Eingeschränkte Verzeichnisse

Geben Sie einen Pfad pro Zeile ein (z.B.: /admin/). Gilt für alle Bots, sofern nicht überschrieben.

Spezifische Bot-Regeln

Googlebot
Google Image Bot
Bingbot
Yahoo! Slurp
DuckDuckBot
Baiduspider
YandexBot
Facebot
Twitterbot
LinkedInBot
Pinterest
Applebot
AhrefsBot
MJ12bot
SemrushBot
DotBot
Rogerbot
Exabot

Generierte robots.txt

Laden Sie diese Datei in das Stammverzeichnis hoch.

Was ist eine Robots.txt-Datei?

Die robots.txt-Datei ist wichtig für SEO.

Hauptvorteile der Verwendung eines Robots.txt-Generators

  • Crawl-Budget optimieren: Große Websites haben ein begrenztes Crawl-Budget.
  • Sensible Bereiche schützen: Obwohl kein Sicherheitsgerät, hält es gut erzogene Bots von Staging-Bereichen fern.
  • Sitemap-Integration: Das automatische Verlinken Ihrer XML-Sitemap hilft Google, neue URLs schneller zu entdecken.

Standard-Robots.txt-Syntax

Die Syntax besteht hauptsächlich aus "User-agent", "Allow", "Disallow" und "Sitemap" Direktiven.

User-agent: *
Disallow: /admin/
Disallow: /tmp/
Allow: /

Diese Konfiguration erlaubt allen Spidern den Zugriff auf die gesamte Website, außer den angegebenen Verzeichnissen.

Häufig gestellte Fragen (FAQ)

Wo hochladen?

Im Stammverzeichnis.

Schützt es Daten?

Nein, kein Sicherheitsprotokoll.

Tools (Sonstiges)

Cookie-Einstellungen

Wir verwenden Cookies und LocalStorage-Technologien, um Ihnen eine bessere Erfahrung zu bieten, den Website-Traffic zu analysieren und Ihre rechtlichen Einwilligungen (QR-Dateiuploads usw.) zu speichern.

Detaillierte Informationen