Czym Jest Plik Robots.txt?
Plik robots.txt to prosty plik tekstowy umieszczony w katalogu głównym Twojej witryny (np. example.com/robots.txt), który informuje roboty wyszukiwarek i inne boty, które strony lub sekcje witryny mogą, a których nie mogą odwiedzać. Plik ten działa zgodnie ze standardem Robots Exclusion Protocol.
Choć robots.txt ma charakter doradczy (nie jest wymuszany technicznie), wszystkie główne wyszukiwarki, takie jak Google i Bing, respektują jego dyrektywy. To pierwsza linia kontroli indeksowania dla każdej witryny internetowej. Nasz wizualny generator pozwala tworzyć reguły robots.txt bez konieczności ręcznej edycji kodu — z gotowymi presetami i wsparciem blokowania botów AI.

Jak Stworzyć Plik Robots.txt
Postępuj zgodnie z poniższymi krokami, aby stworzyć plik robots.txt za pomocą naszego darmowego generatora.
Wybierz szybki preset: 'Allow All' (zezwól na wszystko), 'Block All' (zablokuj wszystko), 'Standard' (zalecana konfiguracja) lub 'Block AI Bots' (zablokuj boty AI). Możesz też zacząć od zera.
Wybierz user-agent (Googlebot, Bingbot, GPTBot itp.) i ustaw dyrektywy Allow lub Disallow dla konkretnych ścieżek na Twojej witrynie.
Dodaj URL swojej mapy witryny XML i opcjonalnie ustaw crawl-delay, aby ograniczyć częstotliwość indeksowania.
Kliknij Download, aby pobrać plik robots.txt, a następnie wgraj go do katalogu głównego witryny (dostępny pod adresem twojadomena.com/robots.txt).
Dyrektywy Robots.txt — Dokumentacja
Plik robots.txt używa zestawu dyrektyw do komunikacji z robotami wyszukiwarek. Każda dyrektywa pełni inną funkcję — od wskazywania crawlera, przez blokowanie ścieżek, po wskazywanie mapy witryny.

Określa, którego crawlera dotyczy reguła. Użyj * dla wszystkich botów lub konkretnych nazw: Googlebot, Bingbot, GPTBot. Każdy blok reguł zaczyna się od User-agent.
Blokuje dostęp do określonej ścieżki. Np. Disallow: /admin/ blokuje katalog admin. Disallow: / blokuje całą witrynę dla danego bota.
Pozwala na dostęp do ścieżki, nadpisując szerszą regułę Disallow. Np. Allow: /images/public/ zezwala na dostęp mimo Disallow: /images/. Gdy obie pasują, wygrywa dłuższa ścieżka.
Wskazuje URL mapy witryny XML. Umieszczany poza blokami User-agent. Możesz dodać wiele dyrektyw Sitemap dla różnych map. Użyj naszego Generatora Sitemap do stworzenia mapy.
Prosi boty o odczekanie X sekund między żądaniami. Np. Crawl-delay: 10 = czekaj 10 sekund. Bing i Yandex respektują, ale Google ignoruje (użyj Search Console). Przydatne dla serwerów o ograniczonych zasobach.
Jak Zablokować Boty AI w Robots.txt
Aby uniemożliwić crawlerom AI wykorzystywanie treści Twojej witryny do trenowania modeli, dodaj specyficzne reguły do pliku robots.txt. Poniżej znajdziesz najpopularniejsze boty AI i odpowiadające im reguły blokujące.
GPTBot (OpenAI): User-agent: GPTBot + Disallow: / — blokuje crawlera OpenAI używanego do trenowania ChatGPT. ClaudeBot (Anthropic): User-agent: ClaudeBot + Disallow: / — blokuje crawlera Anthropic. Google-Extended: User-agent: Google-Extended + Disallow: / — blokuje crawlera Google do trenowania AI (inny niż Googlebot wyszukiwarki). CCBot (Common Crawl): User-agent: CCBot + Disallow: / — blokuje crawlera Common Crawl, publicznego datasetu używanego przez wiele systemów AI. Nasz generator ma preset 'Block AI Bots', który dodaje wszystkie te reguły jednym kliknięciem.
Najlepsze Praktyki Robots.txt
Prawidłowo skonfigurowany plik robots.txt pomaga wyszukiwarkom efektywnie indeksować Twoją witrynę. Stosuj poniższe praktyki, aby uniknąć typowych problemów.
Umieść w katalogu głównym — plik musi być dostępny pod adresem twojadomena.com/robots.txt
Dodaj dyrektywę Sitemap — pomaga wyszukiwarkom odkryć Twoją mapę witryny XML
Nie blokuj CSS i JavaScript — Google musi renderować strony do nowoczesnej indeksacji
Używaj specyficznych reguł — unikaj Disallow: / chyba że celowo blokujesz całą witrynę
Testuj przed publikacją — użyj testera robots.txt w Google Search Console
Aktualizuj po zmianach struktury — nowe katalogi lub sekcje mogą wymagać nowych reguł
Każda subdomena potrzebuje własnego robots.txt — blog.example.com i www.example.com to oddzielne pliki
Pamiętaj: robots.txt to nie zabezpieczenie — dla danych wrażliwych użyj uwierzytelniania i firewalla
Robots.txt vs Inne Metody Kontroli Dostępu
Plik robots.txt to tylko jeden ze sposobów kontroli dostępu do witryny. W zależności od potrzeb możesz potrzebować bardziej restrykcyjnych metod, szczególnie gdy chodzi o ochronę wrażliwych danych.
Robots.txt jest doradczy — boty mogą go zignorować. Meta tag robots (noindex, nofollow) kontroluje indeksację na poziomie pojedynczej strony. X-Robots-Tag w nagłówkach HTTP działa jak meta robots, ale dla dowolnych typów plików (PDF, obrazy). .htaccess i firewalle zapewniają rzeczywiste blokowanie na poziomie serwera. Sprawdź nagłówki HTTP swojej witryny, aby zobaczyć, jakie metody kontroli są aktywne.
Powiązane Narzędzia
DNS Robot oferuje kompletny zestaw darmowych narzędzi SEO i zarządzania witrynami. Oto narzędzia najczęściej używane razem z Generatorem Robots.txt.
Generuj mapy witryn XML, aby ułatwić wyszukiwarkom odkrywanie stron.
Analizuj nagłówki odpowiedzi i bezpieczeństwa dowolnej strony.
Śledź łańcuchy przekierowań 301/302 dowolnego URL.
Znajdź wszystkie linki wewnętrzne i zewnętrzne na dowolnej stronie.
Wykryj jaki CMS, serwer WWW i CDN używa strona.
Sprawdź rekordy DNS i propagację globalną domeny.