DNS RobotDNS Propagation Checker
StartDNSWHOISIPSSL
DNS RobotDNS Propagation Checker

DNS-Propagation-Checker der nächsten Generation

DatenschutzrichtlinieNutzungsbedingungenÜber unsKontakt

DNS-Tools

DNS-AbfrageDomain zu IPNS-AbfrageMX-AbfrageCNAME-AbfrageAlle anzeigen

E-Mail-Tools

SPF-Eintrag-CheckerDMARC-CheckerDKIM-CheckerSMTP-Test-ToolE-Mail-Header-AnalyseAlle anzeigen

Website-Tools

WHOIS-AbfrageDomain-VerfügbarkeitSubdomain-FinderCMS-ErkennungLink-AnalyseAlle anzeigen

Netzwerk-Tools

Ping-ToolTraceroutePort-CheckerHTTP-Header-CheckSSL-Zertifikat-CheckAlle anzeigen

IP-Tools

IP-AbfrageMeine IP-AdresseIP-Blacklist-CheckIP zu HostnameASN-AbfrageAlle anzeigen

Hilfs-Tools

QR-Code-ScannerQR-Code-GeneratorMorsecode-ÜbersetzerText-zu-Binär-KonverterKleintext-GeneratorAlle anzeigen
© 2026 DNS Robot. Entwickelt von: ❤ Shaik Brothers
Alle Systeme betriebsbereit
Made with
  1. Startseite
  2. /
  3. Alle Tools
  4. /
  5. Robots.txt-Generator

Robots.txt-Generator — Robots.txt Erstellen

Erstellen, anpassen und herunterladen Sie Robots.txt-Dateien mit unserem kostenlosen visuellen Editor. Voreinstellungen wählen, Regeln für 20+ Crawler hinzufügen, KI-Bots blockieren wie GPTBot und ClaudeBot und Ihre robots.txt in Sekunden generieren.

Kostenloses SEO-ToolRobots.txt-GeneratorKI-Bot-BlockierungVisueller Editor
Quick Presets

Start with a common configuration and customize as needed

Crawler Rules
Define which paths each crawler can or cannot access
Additional Options
Applied to the wildcard (*) user-agent only. Google ignores crawl-delay.
Generated robots.txt
# robots.txt generated by DNS Robot (https://dnsrobot.net/robots-txt-generator)
# Generated: 2026-02-26T23:58:51.536Z

User-agent: *
Allow: /
1 rule6 lines

Was Ist eine Robots.txt-Datei?

Eine robots.txt-Datei ist eine Textdatei im Stammverzeichnis Ihrer Website (z.B. example.com/robots.txt), die Suchmaschinen-Crawlern und Bots mitteilt, welche Seiten oder Bereiche Ihrer Website sie besuchen dürfen und welche nicht. Sie folgt dem Robots-Exclusion-Standard. Obwohl sie beratend (nicht erzwingbar) ist, respektieren alle großen Suchmaschinen wie Google und Bing die robots.txt-Anweisungen.

Unser Robots.txt-Generator bietet einen visuellen Editor mit Voreinstellungen, um robots.txt-Dateien schnell und korrekt zu erstellen. Nutzen Sie den Sitemap-Generator zum Erstellen einer XML-Sitemap und den HTTP-Header-Checker für Header-Analyse.

So Erstellen Sie Eine Robots.txt-Datei

In vier Schritten zur fertigen robots.txt-Datei.

1
Voreinstellung wählen

Wählen Sie eine Voreinstellung: 'Alle erlauben' (Standard), 'Alle blockieren', 'Standard' oder 'KI-Bots blockieren'. Oder starten Sie von Grund auf.

2
Crawler-Regeln hinzufügen

Wählen Sie einen User-Agent und setzen Sie Allow- oder Disallow-Direktiven für bestimmte Pfade.

3
Sitemap und Crawl-Delay

Optional: Sitemap-URL und Crawl-Delay-Wert hinzufügen.

4
Herunterladen und hochladen

Klicken Sie auf 'Herunterladen' und laden Sie die robots.txt in das Stammverzeichnis Ihrer Website hoch.

KI-Bots Mit Robots.txt Blockieren

Um KI-Crawler am Scrapen Ihrer Inhalte zu hindern, fügen Sie spezifische User-Agent- und Disallow-Regeln hinzu: User-agent: GPTBot / Disallow: / blockiert OpenAIs Crawler, User-agent: ClaudeBot / Disallow: / blockiert Anthropics Crawler und User-agent: Google-Extended / Disallow: / blockiert Googles KI-Trainings-Crawler.

Unser Generator hat eine 'KI-Bots blockieren'-Voreinstellung, die alle wichtigen KI-Bot-Regeln mit einem Klick hinzufügt. Nutzen Sie den CMS-Detektor um die Technologie einer Website zu prüfen.

Robots.txt-Direktiven-Referenz

Die wichtigsten robots.txt-Direktiven im Überblick.

PflichtUser-agent

Gibt an welcher Crawler angesprochen wird (* für alle)

BlockierungDisallow

Blockiert den Zugriff auf einen bestimmten Pfad

ErlaubnisAllow

Erlaubt explizit den Zugriff, überschreibt Disallow

SEOSitemap

Verweist auf die XML-Sitemap-URL

Robots.txt Best Practices

Platzierung: Die robots.txt muss im Stammverzeichnis liegen (https://ihredomain.de/robots.txt). Jede Subdomain benötigt eine eigene Datei. Sitemap: Immer eine Sitemap-Direktive einfügen (Sitemap: https://ihredomain.de/sitemap.xml). Testen: Nutzen Sie die Google Search Console zum Testen Ihrer robots.txt-Regeln.

Kein Sicherheitsmechanismus: Robots.txt ist eine höfliche Bitte, keine Zugangskontrolle. Für echten Zugangsschutz verwenden Sie .htaccess-Regeln, Authentifizierung oder Firewalls. Nutzen Sie den SSL-Checker für die Sicherheitsanalyse Ihrer Website.

Verwandte SEO-Tools

Weitere SEO-Tools von DNS Robot.

Sitemap-Generator

XML-Sitemaps erstellen und herunterladen

Link-Analyzer

Interne und externe Links analysieren

HTTP-Header-Checker

HTTP-Response- und Sicherheitsheader prüfen

CMS-Detektor

CMS und Technologie-Stack erkennen

Häufig Gestellte Fragen zu Robots.txt

Eine robots.txt-Datei ist eine Textdatei im Stammverzeichnis Ihrer Website (z.B. example.com/robots.txt), die Suchmaschinen-Crawlern mitteilt, welche Seiten sie besuchen dürfen und welche nicht. Sie folgt dem Robots-Exclusion-Standard. Obwohl beratend (nicht erzwingbar), respektieren alle großen Suchmaschinen wie Google und Bing die robots.txt-Anweisungen.