DNS RobotDNS Propagation Checker
GłównaDNSWHOISIPSSL
DNS RobotDNS Propagation Checker

Checker propagacji DNS nowej generacji

Polityka PrywatnościRegulaminO nasKontakt

Narzędzia DNS

Wyszukiwanie DNSDomena na IPWyszukiwanie NSWyszukiwanie MXWyszukiwanie CNAMEZobacz wszystko

Narzędzia E-mail

Sprawdzanie Rekordu SPFSprawdzanie DMARCSprawdzanie DKIMTest SMTPAnaliza Nagłówków E-mailZobacz wszystko

Narzędzia Stron WWW

Wyszukiwanie WHOISDostępność DomenyWyszukiwarka SubdomenWykrywanie CMSAnaliza LinkówZobacz wszystko

Narzędzia Sieciowe

Narzędzie PingTracerouteSprawdzanie PortówSprawdzanie Nagłówków HTTPSprawdzanie Certyfikatu SSLZobacz wszystko

Narzędzia IP

Wyszukiwanie IPJaki Jest Mój IPSprawdzanie Czarnej Listy IPIP na HostnameWyszukiwanie ASNZobacz wszystko

Narzędzia Pomocnicze

Skaner QR CodeGenerator QR CodeTłumacz Kodu Morse'aKonwerter Tekstu na BinarnyGenerator Małego TekstuZobacz wszystko
© 2026 DNS Robot. Opracowane przez: ❤ Shaik Brothers
Wszystkie systemy działają
Made with
  1. Strona Główna
  2. /
  3. Wszystkie Narzędzia
  4. /
  5. Generator Robots.txt

Generator Robots.txt — Twórz i Dostosowuj Pliki Robots.txt

Twórz, dostosowuj i pobieraj pliki robots.txt za pomocą naszego darmowego edytora wizualnego. Wybieraj gotowe presety, dodawaj reguły dla 20+ crawlerów, blokuj boty AI takie jak GPTBot i ClaudeBot, oraz generuj plik robots.txt w kilka sekund.

Darmowe Narzędzie SEOGenerator Robots.txtWsparcie Botów AIEdytor Wizualny
Quick Presets

Start with a common configuration and customize as needed

Crawler Rules
Define which paths each crawler can or cannot access
Additional Options
Applied to the wildcard (*) user-agent only. Google ignores crawl-delay.
Generated robots.txt
# robots.txt generated by DNS Robot (https://dnsrobot.net/robots-txt-generator)
# Generated: 2026-02-26T23:58:51.556Z

User-agent: *
Allow: /
1 rule6 lines

Czym Jest Plik Robots.txt?

Plik robots.txt to prosty plik tekstowy umieszczony w katalogu głównym Twojej witryny (np. example.com/robots.txt), który informuje roboty wyszukiwarek i inne boty, które strony lub sekcje witryny mogą, a których nie mogą odwiedzać. Plik ten działa zgodnie ze standardem Robots Exclusion Protocol.

Choć robots.txt ma charakter doradczy (nie jest wymuszany technicznie), wszystkie główne wyszukiwarki, takie jak Google i Bing, respektują jego dyrektywy. To pierwsza linia kontroli indeksowania dla każdej witryny internetowej. Nasz wizualny generator pozwala tworzyć reguły robots.txt bez konieczności ręcznej edycji kodu — z gotowymi presetami i wsparciem blokowania botów AI.

Generator robots.txt z edytorem wizualnym pokazujący presety, reguły crawlerów i podgląd pliku
Edytor wizualny generatora robots.txt z gotowymi presetami i podglądem pliku w czasie rzeczywistym

Jak Stworzyć Plik Robots.txt

Postępuj zgodnie z poniższymi krokami, aby stworzyć plik robots.txt za pomocą naszego darmowego generatora.

1
Krok 1: Wybierz Preset

Wybierz szybki preset: 'Allow All' (zezwól na wszystko), 'Block All' (zablokuj wszystko), 'Standard' (zalecana konfiguracja) lub 'Block AI Bots' (zablokuj boty AI). Możesz też zacząć od zera.

2
Krok 2: Dodaj Reguły Crawlerów

Wybierz user-agent (Googlebot, Bingbot, GPTBot itp.) i ustaw dyrektywy Allow lub Disallow dla konkretnych ścieżek na Twojej witrynie.

3
Krok 3: Skonfiguruj Sitemap i Crawl-Delay

Dodaj URL swojej mapy witryny XML i opcjonalnie ustaw crawl-delay, aby ograniczyć częstotliwość indeksowania.

4
Krok 4: Pobierz i Zainstaluj

Kliknij Download, aby pobrać plik robots.txt, a następnie wgraj go do katalogu głównego witryny (dostępny pod adresem twojadomena.com/robots.txt).

Dyrektywy Robots.txt — Dokumentacja

Plik robots.txt używa zestawu dyrektyw do komunikacji z robotami wyszukiwarek. Każda dyrektywa pełni inną funkcję — od wskazywania crawlera, przez blokowanie ścieżek, po wskazywanie mapy witryny.

Dokumentacja dyrektyw robots.txt — User-agent, Disallow, Allow, Sitemap i Crawl-delay z przykładami
Główne dyrektywy robots.txt: User-agent, Disallow, Allow, Sitemap i Crawl-delay
WymaganyUser-agent

Określa, którego crawlera dotyczy reguła. Użyj * dla wszystkich botów lub konkretnych nazw: Googlebot, Bingbot, GPTBot. Każdy blok reguł zaczyna się od User-agent.

BlokowanieDisallow

Blokuje dostęp do określonej ścieżki. Np. Disallow: /admin/ blokuje katalog admin. Disallow: / blokuje całą witrynę dla danego bota.

ZezwalanieAllow

Pozwala na dostęp do ścieżki, nadpisując szerszą regułę Disallow. Np. Allow: /images/public/ zezwala na dostęp mimo Disallow: /images/. Gdy obie pasują, wygrywa dłuższa ścieżka.

OdkrywanieSitemap

Wskazuje URL mapy witryny XML. Umieszczany poza blokami User-agent. Możesz dodać wiele dyrektyw Sitemap dla różnych map. Użyj naszego Generatora Sitemap do stworzenia mapy.

CzęstotliwośćCrawl-delay

Prosi boty o odczekanie X sekund między żądaniami. Np. Crawl-delay: 10 = czekaj 10 sekund. Bing i Yandex respektują, ale Google ignoruje (użyj Search Console). Przydatne dla serwerów o ograniczonych zasobach.

Jak Zablokować Boty AI w Robots.txt

Aby uniemożliwić crawlerom AI wykorzystywanie treści Twojej witryny do trenowania modeli, dodaj specyficzne reguły do pliku robots.txt. Poniżej znajdziesz najpopularniejsze boty AI i odpowiadające im reguły blokujące.

GPTBot (OpenAI): User-agent: GPTBot + Disallow: / — blokuje crawlera OpenAI używanego do trenowania ChatGPT. ClaudeBot (Anthropic): User-agent: ClaudeBot + Disallow: / — blokuje crawlera Anthropic. Google-Extended: User-agent: Google-Extended + Disallow: / — blokuje crawlera Google do trenowania AI (inny niż Googlebot wyszukiwarki). CCBot (Common Crawl): User-agent: CCBot + Disallow: / — blokuje crawlera Common Crawl, publicznego datasetu używanego przez wiele systemów AI. Nasz generator ma preset 'Block AI Bots', który dodaje wszystkie te reguły jednym kliknięciem.

Najlepsze Praktyki Robots.txt

Prawidłowo skonfigurowany plik robots.txt pomaga wyszukiwarkom efektywnie indeksować Twoją witrynę. Stosuj poniższe praktyki, aby uniknąć typowych problemów.

  • Umieść w katalogu głównym — plik musi być dostępny pod adresem twojadomena.com/robots.txt

  • Dodaj dyrektywę Sitemap — pomaga wyszukiwarkom odkryć Twoją mapę witryny XML

  • Nie blokuj CSS i JavaScript — Google musi renderować strony do nowoczesnej indeksacji

  • Używaj specyficznych reguł — unikaj Disallow: / chyba że celowo blokujesz całą witrynę

  • Testuj przed publikacją — użyj testera robots.txt w Google Search Console

  • Aktualizuj po zmianach struktury — nowe katalogi lub sekcje mogą wymagać nowych reguł

  • Każda subdomena potrzebuje własnego robots.txt — blog.example.com i www.example.com to oddzielne pliki

  • Pamiętaj: robots.txt to nie zabezpieczenie — dla danych wrażliwych użyj uwierzytelniania i firewalla

Robots.txt vs Inne Metody Kontroli Dostępu

Plik robots.txt to tylko jeden ze sposobów kontroli dostępu do witryny. W zależności od potrzeb możesz potrzebować bardziej restrykcyjnych metod, szczególnie gdy chodzi o ochronę wrażliwych danych.

Robots.txt jest doradczy — boty mogą go zignorować. Meta tag robots (noindex, nofollow) kontroluje indeksację na poziomie pojedynczej strony. X-Robots-Tag w nagłówkach HTTP działa jak meta robots, ale dla dowolnych typów plików (PDF, obrazy). .htaccess i firewalle zapewniają rzeczywiste blokowanie na poziomie serwera. Sprawdź nagłówki HTTP swojej witryny, aby zobaczyć, jakie metody kontroli są aktywne.

Powiązane Narzędzia

DNS Robot oferuje kompletny zestaw darmowych narzędzi SEO i zarządzania witrynami. Oto narzędzia najczęściej używane razem z Generatorem Robots.txt.

Generator Sitemap

Generuj mapy witryn XML, aby ułatwić wyszukiwarkom odkrywanie stron.

HTTP Headers

Analizuj nagłówki odpowiedzi i bezpieczeństwa dowolnej strony.

Redirect Checker

Śledź łańcuchy przekierowań 301/302 dowolnego URL.

Analizer Linków

Znajdź wszystkie linki wewnętrzne i zewnętrzne na dowolnej stronie.

Detektor CMS

Wykryj jaki CMS, serwer WWW i CDN używa strona.

Wyszukiwanie DNS

Sprawdź rekordy DNS i propagację globalną domeny.

Najczęściej Zadawane Pytania o Robots.txt

Plik robots.txt to prosty plik tekstowy umieszczony w katalogu głównym witryny (np. example.com/robots.txt), który informuje roboty wyszukiwarek, które strony mogą, a których nie mogą odwiedzać. Działa zgodnie ze standardem Robots Exclusion Protocol. Ma charakter doradczy — dobrze zachowujące się boty jak Google i Bing respektują go, ale złośliwe boty mogą go ignorować.