DNS RobotDNS Propagation Checker
InicioDNSWHOISIPSSL
DNS RobotDNS Propagation Checker

Kit de herramientas DNS de nueva generación

Política de PrivacidadTérminos de ServicioAcerca de NosotrosContacto

Herramientas DNS

Consulta DNSDominio a IPConsulta NSConsulta MXConsulta CNAMEVer todo

Herramientas de Correo

Verificador de Registro SPFVerificador DMARCVerificador DKIMHerramienta de Prueba SMTPAnalizador de Cabeceras de CorreoVer todo

Herramientas Web

Consulta WHOISDisponibilidad de DominioBuscador de SubdominiosDetector de CMSAnalizador de EnlacesVer todo

Herramientas de Red

Herramienta PingTracerouteVerificador de PuertosVerificador de Cabeceras HTTPVerificador de Certificado SSLVer todo

Herramientas IP

Consulta de IPCuál Es Mi IPVerificador de Lista Negra IPIP a HostnameConsulta ASNVer todo

Herramientas Útiles

Escáner de Código QRGenerador de Código QRTraductor de Código MorseConversor de Texto a BinarioGenerador de Texto PequeñoVer todo
© 2026 DNS Robot. Desarrollado por: ❤ Shaik Brothers
Todos los sistemas operacionales
Made with
  1. Inicio
  2. /
  3. Todas las Herramientas
  4. /
  5. Generador Robots.txt

Generador de Robots.txt

Cree, personalice y descargue archivos robots.txt con nuestro editor visual gratis. Elija entre presets, agregue reglas para 20+ crawlers, bloquee bots de IA como GPTBot y ClaudeBot, y genere su robots.txt en segundos.

Herramienta SEO GratisGenerador Robots.txtBloqueo de Bots IAEditor Visual
Quick Presets

Start with a common configuration and customize as needed

Crawler Rules
Define which paths each crawler can or cannot access
Additional Options
Applied to the wildcard (*) user-agent only. Google ignores crawl-delay.
Generated robots.txt
# robots.txt generated by DNS Robot (https://dnsrobot.net/robots-txt-generator)
# Generated: 2026-02-26T23:58:51.789Z

User-agent: *
Allow: /
1 rule6 lines

¿Qué es un Archivo Robots.txt?

Un archivo robots.txt es un archivo de texto plano ubicado en el directorio raíz de su sitio web (ej: ejemplo.com/robots.txt) que indica a los crawlers de motores de búsqueda y bots qué páginas o secciones pueden y no pueden acceder. Sigue el estándar Robots Exclusion Protocol.

Aunque es consultivo (no obligatorio), todos los principales motores de búsqueda como Google y Bing respetan las directivas del robots.txt. Es la primera línea de control de rastreo para cualquier sitio web.

Nuestro generador visual le permite crear reglas de robots.txt sin necesidad de editar código manualmente, con presets listos y soporte para bloqueo de bots de IA.

Generador de robots.txt con editor visual mostrando presets, reglas de crawler y vista previa del archivo
Editor visual del generador de robots.txt con presets listos y vista previa en tiempo real

Cómo Crear un Archivo Robots.txt

Siga estos pasos para crear su robots.txt usando nuestro generador:

1
Paso 1: Elija un Preset

Seleccione un preset rápido: 'Allow All' (permite todo), 'Block All' (bloquea todo), 'Standard' (configuración recomendada) o 'Block AI Bots' (bloquea bots de IA). O comience desde cero.

2
Paso 2: Agregue Reglas de Crawler

Seleccione un user-agent (Googlebot, Bingbot, GPTBot, etc.) y defina directivas Allow o Disallow para rutas específicas de su sitio.

3
Paso 3: Configure Sitemap y Crawl-Delay

Agregue la URL de su XML sitemap y opcionalmente defina un crawl-delay para limitar la frecuencia de rastreo.

4
Paso 4: Descargue e Instale

Haga clic en Download para obtener su robots.txt y súbalo al directorio raíz de su sitio (accesible en sudominio.com/robots.txt).

Referencia de Directivas Robots.txt

Conozca las principales directivas disponibles en el robots.txt:

ObligatorioUser-agent

Especifica a qué crawler se aplica la regla. Use * para todos los bots, o nombres específicos como Googlebot, Bingbot, GPTBot.

BloqueoDisallow

Bloquea el acceso a una ruta específica. Ej: Disallow: /admin/ bloquea el directorio admin. Disallow: / bloquea todo el sitio.

PermisoAllow

Permite el acceso a una ruta, anulando un Disallow más amplio. Ej: Allow: /images/public/ permite acceso incluso con Disallow: /images/.

DescubrimientoSitemap

Indica la URL del XML sitemap. Se coloca fuera de cualquier bloque User-agent. Acepta múltiples entradas para varios sitemaps.

FrecuenciaCrawl-delay

Pide a los bots esperar X segundos entre solicitudes. Bing y Yandex lo respetan, pero Google lo ignora (use Search Console).

Cómo Bloquear Bots de IA con Robots.txt

Para impedir que crawlers de IA usen su contenido para entrenamiento, agregue reglas específicas al robots.txt:

GPTBot (OpenAI): User-agent: GPTBot + Disallow: / — bloquea el crawler de OpenAI usado para entrenamiento de ChatGPT.

ClaudeBot (Anthropic): User-agent: ClaudeBot + Disallow: / — bloquea el crawler de Anthropic.

Google-Extended: User-agent: Google-Extended + Disallow: / — bloquea el crawler de Google para entrenamiento de IA (diferente del Googlebot de búsqueda).

CCBot (Common Crawl): User-agent: CCBot + Disallow: / — bloquea el crawler de Common Crawl, dataset público utilizado por muchas IAs.

Nuestro generador tiene el preset 'Block AI Bots' que agrega todas estas reglas con un clic. Verifique sus encabezados HTTP para confirmar que el archivo robots.txt es accesible correctamente.

Robots.txt vs Otros Métodos de Control de Acceso

El robots.txt es solo una forma de controlar el acceso a su sitio. Compare con otros métodos disponibles:

ConsultivoRobots.txt

Consultivo, respetado por bots bien comportados. Fácil de implementar. No es seguridad real — bots maliciosos pueden ignorarlo.

Por PáginaMeta Robots Tag

Etiqueta HTML <meta name='robots'> con noindex, nofollow. Controla indexación por página. Más granular que robots.txt.

Por ArchivoX-Robots-Tag Header

Encabezado HTTP que funciona como meta robots pero para cualquier tipo de archivo (PDF, imagen). Ideal para contenido no-HTML.

Obligatorio.htaccess / Firewall

Bloqueo real en el servidor. Impide el acceso completamente, no solo el rastreo. Use para seguridad real.

Buenas Prácticas para Robots.txt

Siga estas prácticas para un robots.txt eficaz:

  • Colóquelo en el directorio raíz — debe ser accesible en sudominio.com/robots.txt

  • Incluya la directiva Sitemap — ayuda a los motores de búsqueda a descubrir su XML sitemap

  • No bloquee CSS y JavaScript — Google necesita renderizar sus páginas para la indexación moderna

  • Use reglas específicas — evite Disallow: / excepto cuando sea necesario (bloquea todo el sitio)

  • Pruebe antes de publicar — use el probador de robots.txt de Google Search Console

  • Actualice después de cambios de estructura — nuevos directorios o secciones pueden necesitar reglas

  • Cada subdominio necesita su propio robots.txt — blog.ejemplo.com y www.ejemplo.com son independientes

  • Recuerde: robots.txt no es seguridad — use autenticación y firewalls para datos sensibles

Herramientas Relacionadas

Explore nuestras otras herramientas gratis para SEO y administración de sitios:

Generador de Sitemap

Genere XML sitemaps para ayudar a los motores de búsqueda a encontrar sus páginas.

Verificador de Headers HTTP

Analice encabezados de respuesta y seguridad de cualquier sitio.

Consulta DNS

Verifique registros DNS y propagación global del dominio.

Verificador SSL

Verifique certificado SSL, protocolo TLS y validez.

Analizador de Enlaces

Encuentre todos los enlaces internos y externos de cualquier página.

Detector de CMS

Descubra qué CMS, servidor web y CDN utiliza un sitio.

Preguntas Frecuentes Sobre Robots.txt

Un archivo robots.txt es un archivo de texto plano ubicado en el directorio raíz del sitio web (ej: ejemplo.com/robots.txt) que indica a los crawlers de motores de búsqueda qué páginas pueden y no pueden acceder. Sigue el estándar Robots Exclusion Protocol. Es consultivo — bots bien comportados como Google y Bing lo respetan, pero bots maliciosos pueden ignorarlo.