DNS RobotDNS Propagation Checker
InícioDNSWHOISIP LookupSSL
DNS RobotDNS Propagation Checker

Kit de ferramentas DNS de última geração

Política de PrivacidadeTermos de ServiçoSobre NósContato

Ferramentas DNS

Consulta DNSDomínio para IPConsulta NSConsulta MXConsulta CNAMEVer tudo

Ferramentas de E-mail

Verificador SPFVerificador DMARCVerificador DKIMTeste SMTPAnalisador de Cabeçalho de E-mailVer tudo

Ferramentas de Sites

Consulta WHOISDisponibilidade de DomínioLocalizador de SubdomíniosDetector de CMSAnalisador de LinksVer tudo

Ferramentas de Rede

Ferramenta PingTracerouteVerificador de PortasVerificador de Cabeçalhos HTTPVerificador de Certificado SSLVer tudo

Ferramentas de IP

Consulta de IPQual é Meu IPVerificador de Lista Negra de IPIP para HostnameConsulta ASNVer tudo

Ferramentas Úteis

Leitor de QR CodeGerador de QR CodeTradutor de Código MorseConversor de Texto para BinárioGerador de Texto PequenoVer tudo
© 2026 DNS Robot. Desenvolvido por ❤ Shaik Brothers
Todos os sistemas em operação
Made with
  1. Início
  2. /
  3. Todas as Ferramentas
  4. /
  5. Gerador de Robots.txt

Gerador de Robots.txt

Crie, personalize e baixe arquivos robots.txt com nosso editor visual grátis. Escolha presets, adicione regras para 20+ crawlers, bloqueie bots de IA como GPTBot e ClaudeBot, e gere seu robots.txt em segundos.

Ferramenta SEO GrátisGerador Robots.txtBloqueio de Bots IAEditor Visual
Quick Presets

Start with a common configuration and customize as needed

Crawler Rules
Define which paths each crawler can or cannot access
Additional Options
Applied to the wildcard (*) user-agent only. Google ignores crawl-delay.
Generated robots.txt
# robots.txt generated by DNS Robot (https://dnsrobot.net/robots-txt-generator)
# Generated: 2026-02-26T23:58:51.465Z

User-agent: *
Allow: /
1 rule6 lines

O Que é um Arquivo Robots.txt?

Um arquivo robots.txt é um arquivo de texto simples colocado no diretório raiz do seu site (ex: exemplo.com/robots.txt) que diz aos crawlers de motores de busca e bots quais páginas ou seções podem e não podem acessar. Ele segue o padrão Robots Exclusion Protocol.

Embora seja consultivo (não obrigatório), todos os grandes motores de busca como Google e Bing respeitam as diretivas do robots.txt. É a primeira linha de controle de rastreamento para qualquer site.

Nosso gerador visual permite criar regras de robots.txt sem necessidade de editar código manualmente, com presets prontos e suporte a bloqueio de bots de IA.

Gerador de robots.txt com editor visual mostrando presets, regras de crawler e preview do arquivo
Editor visual do gerador de robots.txt com presets prontos e preview em tempo real

Como Criar um Arquivo Robots.txt

Siga estes passos para criar seu robots.txt usando nosso gerador:

1
Passo 1: Escolha um Preset

Selecione um preset rápido: 'Allow All' (permite tudo), 'Block All' (bloqueia tudo), 'Standard' (configuração recomendada) ou 'Block AI Bots' (bloqueia bots de IA). Ou comece do zero.

2
Passo 2: Adicione Regras de Crawler

Selecione um user-agent (Googlebot, Bingbot, GPTBot, etc.) e defina diretivas Allow ou Disallow para caminhos específicos do seu site.

3
Passo 3: Configure Sitemap e Crawl-Delay

Adicione a URL do seu XML sitemap e opcionalmente defina um crawl-delay para limitar a frequência de rastreamento.

4
Passo 4: Baixe e Instale

Clique em Download para obter seu robots.txt e faça upload para o diretório raiz do seu site (acessível em seudominio.com/robots.txt).

Referência de Diretivas Robots.txt

Conheça as principais diretivas disponíveis no robots.txt:

Referência de diretivas robots.txt — User-agent, Disallow, Allow, Sitemap e Crawl-delay com exemplos
Principais diretivas do robots.txt: User-agent, Disallow, Allow, Sitemap e Crawl-delay
ObrigatórioUser-agent

Especifica qual crawler a regra se aplica. Use * para todos os bots, ou nomes específicos como Googlebot, Bingbot, GPTBot.

BloqueioDisallow

Bloqueia o acesso a um caminho específico. Ex: Disallow: /admin/ bloqueia o diretório admin. Disallow: / bloqueia todo o site.

PermissãoAllow

Permite acesso a um caminho, sobrescrevendo Disallow mais amplo. Ex: Allow: /images/public/ permite acesso mesmo com Disallow: /images/.

DescobertaSitemap

Indica a URL do XML sitemap. Colocado fora de qualquer bloco User-agent. Aceita múltiplas entradas para vários sitemaps.

FrequênciaCrawl-delay

Pede aos bots para esperar X segundos entre requisições. Bing e Yandex respeitam, mas Google ignora (use Search Console).

Como Bloquear Bots de IA com Robots.txt

Para impedir que crawlers de IA usem seu conteúdo para treinamento, adicione regras específicas ao robots.txt:

GPTBot (OpenAI): User-agent: GPTBot + Disallow: / — bloqueia o crawler da OpenAI usado para treinamento do ChatGPT.

ClaudeBot (Anthropic): User-agent: ClaudeBot + Disallow: / — bloqueia o crawler da Anthropic.

Google-Extended: User-agent: Google-Extended + Disallow: / — bloqueia o crawler do Google para treinamento de IA (diferente do Googlebot de busca).

CCBot (Common Crawl): User-agent: CCBot + Disallow: / — bloqueia o crawler do Common Crawl, dataset público usado por muitas IAs.

Nosso gerador tem o preset 'Block AI Bots' que adiciona todas essas regras com um clique.

Robots.txt vs Outros Métodos de Controle

O robots.txt é apenas uma forma de controlar o acesso ao seu site. Compare com outros métodos:

Comparação entre robots.txt, meta robots, X-Robots-Tag e .htaccess para controle de acesso
Robots.txt é consultivo; para bloqueio real, use .htaccess ou firewall
ConsultivoRobots.txt

Consultivo, respeitado por bots bem-comportados. Fácil de implementar. Não é segurança real — bots maliciosos podem ignorar.

Por PáginaMeta Robots Tag

Tag HTML <meta name='robots'> com noindex, nofollow. Controla indexação por página. Mais granular que robots.txt.

Por ArquivoX-Robots-Tag Header

Header HTTP que funciona como meta robots mas para qualquer tipo de arquivo (PDF, imagem). Ideal para conteúdo não-HTML.

Obrigatório.htaccess / Firewall

Bloqueio real no servidor. Impede acesso completamente, não apenas rastreamento. Use para segurança real.

Boas Práticas para Robots.txt

Siga estas práticas para um robots.txt eficaz:

  • Coloque no diretório raiz — deve ser acessível em seudominio.com/robots.txt

  • Inclua diretiva Sitemap — ajuda motores de busca a descobrir seu XML sitemap

  • Não bloqueie CSS e JavaScript — Google precisa renderizar suas páginas para indexação moderna

  • Use regras específicas — evite Disallow: / exceto quando necessário (bloqueia todo o site)

  • Teste antes de publicar — use o testador de robots.txt do Google Search Console

  • Atualize após mudanças de estrutura — novos diretórios ou seções podem precisar de regras

  • Cada subdomínio precisa do seu próprio robots.txt — blog.exemplo.com e www.exemplo.com são separados

  • Lembre-se: robots.txt não é segurança — use autenticação e firewalls para dados sensíveis

Ferramentas Relacionadas

Explore nossas outras ferramentas grátis para SEO e gerenciamento de sites:

Gerador de Sitemap

Gere XML sitemaps para ajudar motores de busca a encontrar suas páginas.

Verificador de Headers HTTP

Analise headers de resposta e segurança de qualquer site.

Verificador de Redirecionamento

Rastreie cadeias de redirecionamento 301/302 de qualquer URL.

Analisador de Links

Encontre todos os links internos e externos em qualquer página.

Detector de CMS

Descubra qual CMS, servidor web e CDN um site usa.

Verificador SSL

Verifique certificado SSL, protocolo TLS e validade.

Perguntas Frequentes Sobre Robots.txt

Um arquivo robots.txt é um arquivo de texto colocado no diretório raiz do site (ex: exemplo.com/robots.txt) que diz aos crawlers de motores de busca quais páginas podem e não podem acessar. Segue o padrão Robots Exclusion Protocol. É consultivo — bots bem-comportados como Google e Bing respeitam, mas bots maliciosos podem ignorar.