DNS RobotDNS Propagation Checker
홈DNS 조회WHOISIP 조회SSL
DNS RobotDNS Propagation Checker

차세대 DNS 검사 도구

개인정보 보호정책이용약관소개문의

DNS 도구

DNS 조회도메인에서 IP로NS 조회MX 조회CNAME 조회모두 보기

이메일 도구

SPF 레코드 확인DMARC 확인DKIM 확인SMTP 테스트 도구이메일 헤더 분석모두 보기

웹사이트 도구

WHOIS 조회도메인 가용성 확인서브도메인 검색CMS 감지기링크 분석모두 보기

네트워크 도구

Ping 도구트레이스라우트포트 확인HTTP 헤더 확인SSL 인증서 확인모두 보기

IP 도구

IP 조회내 IP 주소 확인IP 블랙리스트 확인IP에서 호스트명으로ASN 조회모두 보기

유틸리티 도구

QR 코드 스캐너QR 코드 생성기모스 부호 변환기텍스트를 바이너리로 변환작은 텍스트 생성기모두 보기
© 2026 DNS Robot. 개발: ❤ Shaik Brothers
모든 시스템 정상 운영 중
Made with
  1. 홈
  2. /
  3. 전체 도구
  4. /
  5. Robots.txt 생성기

Robots.txt 생성기 — 크롤러 규칙 생성 도구

무료 비주얼 에디터로 robots.txt 파일을 생성하고 커스터마이징하세요. 프리셋에서 선택하고, 20개 이상의 크롤러에 대한 규칙을 추가하며, GPTBot과 ClaudeBot 같은 AI 봇을 차단하고, 몇 초 만에 robots.txt 파일을 다운로드하세요.

무료 SEO 도구Robots.txt 생성기AI 봇 차단비주얼 에디터
Quick Presets

Start with a common configuration and customize as needed

Crawler Rules
Define which paths each crawler can or cannot access
Additional Options
Applied to the wildcard (*) user-agent only. Google ignores crawl-delay.
Generated robots.txt
# robots.txt generated by DNS Robot (https://dnsrobot.net/robots-txt-generator)
# Generated: 2026-02-26T23:58:51.733Z

User-agent: *
Allow: /
1 rule6 lines

Robots.txt 파일이란?

robots.txt 파일은 웹사이트의 루트 디렉토리(예: example.com/robots.txt)에 위치하는 일반 텍스트 파일로, 검색 엔진 크롤러와 봇에게 사이트의 어떤 페이지나 섹션에 접근할 수 있고 없는지를 알려줍니다. Robots Exclusion Protocol 표준을 따르며, Google, Bing 등 주요 검색 엔진이 이 규칙을 준수합니다.

robots.txt는 크롤링 제어의 첫 번째 방어선입니다. 관리자 페이지, 개인 디렉토리, 중복 콘텐츠를 검색 엔진 크롤러로부터 숨기고, 크롤링 예산을 중요한 페이지에 집중시킬 수 있습니다. 또한 최근에는 GPTBot, ClaudeBot 같은 AI 크롤러를 차단하는 데에도 널리 사용됩니다.

DNS Robot의 무료 robots.txt 생성기는 비주얼 에디터와 프리셋을 제공하여 코딩 없이도 robots.txt 파일을 쉽게 만들 수 있습니다. HTTP 헤더 검사로 응답 헤더를 확인하고, 서브도메인 찾기로 각 서브도메인의 robots.txt 필요성을 평가하세요.

DNS Robot Robots.txt 생성기 도구의 비주얼 에디터와 프리셋 옵션을 보여주는 화면
Robots.txt 생성기 — 비주얼 에디터, 프리셋, AI 봇 차단 옵션을 포함한 무료 도구입니다.

Robots.txt 파일 만드는 방법

robots.txt 파일을 만드는 가장 쉬운 방법은 DNS Robot의 무료 생성기를 사용하는 것입니다. 프리셋에서 시작하여 필요에 맞게 규칙을 커스터마이징하고, 완성된 파일을 다운로드할 수 있습니다.

아래 단계를 따르면 몇 분 안에 robots.txt 파일을 생성하고 웹사이트에 업로드할 수 있습니다.

1
프리셋 선택 또는 처음부터 시작

4가지 빠른 프리셋 중 하나를 선택하세요: 전체 허용(모든 크롤러 허용), 전체 차단(모든 크롤러 차단), 표준(관리자/비공개 경로 차단), AI 봇 차단(GPTBot, ClaudeBot 등 차단). 또는 빈 상태에서 직접 규칙을 추가할 수 있습니다.

2
크롤러 규칙 추가

User-Agent를 선택하고 Allow 또는 Disallow 지시문으로 특정 경로에 대한 규칙을 설정합니다. 20개 이상의 크롤러(Googlebot, Bingbot, GPTBot, ClaudeBot 등)를 지원합니다.

3
Sitemap 및 Crawl-delay 설정

선택적으로 Sitemap URL(예: https://example.com/sitemap.xml)과 Crawl-delay(초 단위)를 설정하세요. Sitemap 지시문은 검색 엔진이 사이트맵을 쉽게 발견하는 데 도움이 됩니다.

4
다운로드 또는 복사

완성된 robots.txt 파일을 다운로드하거나 클립보드에 복사하세요. 웹사이트의 루트 디렉토리에 업로드하면 바로 적용됩니다.

Robots.txt 지시문 참조

robots.txt 파일은 몇 가지 핵심 지시문으로 구성됩니다. 각 지시문의 용도와 문법을 이해하면 효과적인 크롤러 규칙을 작성할 수 있습니다.

아래는 robots.txt에서 사용할 수 있는 주요 지시문입니다. 링크 분석기로 사이트의 링크 구조를 파악한 후 차단할 경로를 결정하면 더 효과적입니다.

User-agent

규칙이 적용되는 크롤러를 지정합니다. User-agent: *는 모든 크롤러에 적용되고, User-agent: Googlebot은 Google 크롤러에만 적용됩니다. 각 User-agent 블록 아래에 Allow/Disallow 규칙을 나열합니다.

Disallow

크롤러가 접근하지 말아야 할 경로를 지정합니다. Disallow: /admin/은 관리자 디렉토리를 차단합니다. Disallow: /는 전체 사이트를 차단합니다. 빈 값(Disallow:)은 모든 접근을 허용합니다.

Allow

Disallow 규칙을 재정의하여 특정 경로에 대한 접근을 명시적으로 허용합니다. Disallow: /images/ 후 Allow: /images/public/은 public 폴더만 허용합니다. 더 구체적인(긴 경로) 규칙이 우선 적용됩니다.

Sitemap

사이트맵의 전체 URL을 지정합니다. Sitemap: https://example.com/sitemap.xml처럼 작성합니다. User-agent 블록 밖에 위치하며, 여러 개의 Sitemap 지시문을 사용할 수 있습니다.

Crawl-delay

크롤러가 요청 사이에 대기해야 할 시간(초)을 지정합니다. Crawl-delay: 10은 10초 간격을 요청합니다. Google은 이를 지원하지 않지만(Search Console 사용), Bing과 Yandex는 준수합니다.

일반적인 Robots.txt 예시

다양한 상황에 맞는 robots.txt 예시를 참고하면 자신의 사이트에 적합한 규칙을 빠르게 작성할 수 있습니다. 아래는 가장 흔한 사용 사례와 해당 구성입니다.

DNS Robot의 robots.txt 생성기는 이러한 패턴을 프리셋으로 제공하여 원클릭으로 적용할 수 있습니다. 리다이렉트 확인으로 차단된 경로의 리다이렉트도 함께 점검하세요.

전체 허용

User-agent: * / Disallow: — 모든 크롤러에게 전체 사이트 접근을 허용합니다. 대부분의 공개 웹사이트에 적합하며, Sitemap 지시문과 함께 사용하면 효과적입니다.

전체 차단

User-agent: * / Disallow: / — 모든 크롤러의 전체 사이트 접근을 차단합니다. 개발 중이거나 비공개 사이트에 사용합니다. 프로덕션 사이트에서는 사용하지 마세요.

관리자 경로 차단

User-agent: * / Disallow: /admin/ / Disallow: /wp-admin/ / Disallow: /cgi-bin/ — 관리자 패널과 시스템 디렉토리를 검색 엔진에서 숨깁니다. 대부분의 웹사이트에 권장되는 기본 구성입니다.

검색 결과 페이지 차단

User-agent: * / Disallow: /search / Disallow: /?s= / Disallow: /tag/ — 내부 검색 결과, 태그 페이지 등 저품질 콘텐츠를 차단하여 크롤링 예산을 절약합니다.

Robots.txt로 AI 봇을 차단하는 방법

AI 학습 크롤러가 웹 콘텐츠를 수집하는 것이 증가하면서, 많은 웹사이트 소유자가 robots.txt를 사용하여 AI 봇을 차단하고 있습니다. OpenAI의 GPTBot, Anthropic의 ClaudeBot, Google의 Google-Extended 등이 대표적인 AI 크롤러입니다.

AI 봇 차단은 콘텐츠가 AI 모델 학습에 사용되는 것을 방지하는 가장 간단한 방법입니다. 다만, robots.txt는 권고 사항이므로 모든 봇이 이를 준수한다고 보장할 수 없습니다. 법적 보호가 필요한 경우 서버 측 차단도 함께 사용하세요.

DNS Robot의 robots.txt 생성기에는 'AI 봇 차단' 프리셋이 있어 원클릭으로 주요 AI 크롤러를 모두 차단할 수 있습니다. DMARC 생성기처럼 보안 관련 설정을 자동화하는 다른 도구도 활용하세요.

  • GPTBot (OpenAI) — User-agent: GPTBot / Disallow: / 로 OpenAI의 AI 학습 크롤러를 차단합니다

  • ClaudeBot (Anthropic) — User-agent: ClaudeBot / Disallow: / 로 Anthropic의 AI 학습 크롤러를 차단합니다

  • Google-Extended — User-agent: Google-Extended / Disallow: / 로 Google의 AI 학습 전용 크롤러를 차단합니다 (일반 검색 크롤링에는 영향 없음)

  • CCBot (Common Crawl) — User-agent: CCBot / Disallow: / 로 대규모 웹 아카이브 크롤러를 차단합니다

  • Bytespider (ByteDance) — User-agent: Bytespider / Disallow: / 로 ByteDance/TikTok의 크롤러를 차단합니다

  • Cohere-ai — User-agent: cohere-ai / Disallow: / 로 Cohere의 AI 학습 크롤러를 차단합니다

Robots.txt vs 다른 접근 제어 방법

robots.txt는 크롤러 접근을 제어하는 여러 방법 중 하나입니다. 각 방법은 다른 목적과 강도를 가지며, 상황에 따라 적절한 방법을 선택하거나 조합하여 사용해야 합니다.

SSL 체커로 HTTPS 보안 구성을 확인하고, HTTP 헤더 검사로 보안 헤더 설정도 함께 점검하세요.

robots.txt

권고 사항으로, 정상적인 크롤러는 준수하지만 악성 봇은 무시할 수 있습니다. 크롤링을 방지하지만 인덱싱을 보장하지는 않습니다. 설정이 간단하고 사이트 전체에 적용됩니다.

meta noindex

HTML의 <meta name="robots" content="noindex"> 태그로 검색 엔진에 페이지를 인덱싱하지 말라고 지시합니다. 크롤링은 허용하지만 인덱싱은 방지합니다. 주의: robots.txt로 차단된 페이지는 이 태그가 크롤링되지 않아 적용되지 않습니다.

X-Robots-Tag 헤더

HTTP 응답 헤더로 X-Robots-Tag: noindex를 설정하여 PDF, 이미지 등 HTML이 아닌 리소스에도 noindex를 적용할 수 있습니다. 서버 설정에서 구성합니다.

서버 측 차단

.htaccess, nginx 규칙, 방화벽으로 IP 기반 또는 User-Agent 기반 차단을 합니다. 강제적이며 악성 봇도 차단할 수 있지만, 설정이 복잡하고 정상 트래픽을 차단할 위험이 있습니다.

Robots.txt 모범 사례

올바른 robots.txt 구성은 SEO 성과와 사이트 보안에 중요합니다. 아래 모범 사례를 따르면 크롤러 규칙을 효과적으로 관리하고 일반적인 실수를 방지할 수 있습니다.

도메인 검증으로 전체 도메인 설정을 점검하고, WHOIS 조회로 도메인 정보를 확인하세요.

  • 루트 디렉토리에 배치 — robots.txt는 반드시 https://yourdomain.com/robots.txt에서 접근 가능해야 합니다. 하위 디렉토리에 넣으면 작동하지 않습니다

  • Sitemap 지시문 포함 — Sitemap: https://yourdomain.com/sitemap.xml을 추가하여 검색 엔진이 사이트맵을 쉽게 발견하도록 하세요

  • 서브도메인별 별도 파일 — blog.example.com과 www.example.com은 각각 별도의 robots.txt가 필요합니다

  • 민감한 정보에 의존하지 않기 — robots.txt는 공개 파일입니다. 비밀 URL이나 민감한 경로를 노출하지 마세요. 진정한 보안은 인증으로 구현하세요

  • 변경 후 테스트 — Google Search Console의 robots.txt 테스터로 규칙이 의도대로 작동하는지 확인하세요

  • 주요 페이지 차단 방지 — 중요한 CSS, JS 파일을 차단하면 검색 엔진이 페이지를 올바르게 렌더링하지 못합니다

  • 정기적으로 검토 — 사이트 구조 변경, 새로운 AI 봇 등장에 맞춰 robots.txt를 주기적으로 업데이트하세요

관련 도구

DNS Robot은 robots.txt 생성기를 보완하는 다양한 SEO 및 웹사이트 관리 도구를 제공합니다. 사이트의 크롤러 규칙, 사이트맵, 보안 설정을 종합적으로 관리하세요.

XML 사이트맵 생성기

웹사이트를 크롤링하여 유효한 sitemap.xml 파일을 자동으로 생성합니다.

HTTP 헤더 검사

HTTP 응답 헤더와 보안 헤더(HSTS, CSP, X-Frame-Options)를 분석합니다.

링크 분석기

웹페이지의 내부 및 외부 링크를 추출하고 nofollow/dofollow 속성을 감지합니다.

리다이렉트 확인

URL의 리다이렉트 체인을 추적하여 301, 302 리다이렉트를 확인합니다.

서브도메인 찾기

CT 로그를 활용하여 도메인의 서브도메인을 발견합니다.

도메인 검증

DNS 레코드, SSL, 이메일 인증 등 도메인의 전반적인 설정을 검증합니다.

Robots.txt에 대한 자주 묻는 질문

robots.txt 파일은 웹사이트의 루트 디렉토리(예: example.com/robots.txt)에 위치하는 일반 텍스트 파일로, 검색 엔진 크롤러와 봇에게 사이트의 어떤 페이지나 섹션에 접근할 수 있고 없는지를 알려줍니다. Robots Exclusion Protocol 표준을 따르며, 권고 사항이지만(강제가 아님) Google, Bing 등 주요 검색 엔진은 robots.txt 지시문을 준수합니다.