DNS RobotDNS Propagation Checker
ホームDNS検索WHOISIP検索SSL
DNS RobotDNS Propagation Checker

次世代DNS伝播チェックツール

プライバシーポリシー利用規約私たちについてお問い合わせ

DNSツール

DNS検索ドメインからIP変換NS検索MX検索CNAME検索すべて表示

メールツール

SPFレコードチェッカーDMARCチェッカーDKIMチェッカーSMTPテストツールメールヘッダー解析すべて表示

ウェブサイトツール

WHOIS検索ドメイン空き状況確認サブドメイン検索CMS検出ツールリンク解析すべて表示

ネットワークツール

PingツールトレースルートポートチェッカーHTTPヘッダーチェックSSL証明書チェックすべて表示

IPツール

IP検索自分のIPアドレス確認IPブラックリストチェックIPからホスト名変換ASN検索すべて表示

ユーティリティツール

QRコードスキャナーQRコード生成モールス信号変換テキストからバイナリ変換小さい文字ジェネレーターすべて表示
© 2026 DNS Robot. 開発: ❤ Shaik Brothers
全システム正常稼働中
Made with
  1. ホーム
  2. /
  3. SEOツール
  4. /
  5. Robots.txt生成ツール

Robots.txt生成ツール — クローラー制御

無料のビジュアルエディターでrobots.txtファイルを作成・カスタマイズ。プリセットから選択、20以上のクローラー用ルールを追加、GPTBotやClaudeBotなどのAIボットをブロック、数秒でrobots.txtファイルを生成。

無料SEOツールRobots.txt生成AIボット対応ビジュアルエディター
Quick Presets

Start with a common configuration and customize as needed

Crawler Rules
Define which paths each crawler can or cannot access
Additional Options
Applied to the wildcard (*) user-agent only. Google ignores crawl-delay.
Generated robots.txt
# robots.txt generated by DNS Robot (https://dnsrobot.net/robots-txt-generator)
# Generated: 2026-02-26T23:58:51.492Z

User-agent: *
Allow: /
1 rule6 lines

Robots.txtファイルとは?

robots.txtは、ウェブサイトのルートディレクトリ(例:example.com/robots.txt)に配置するテキストファイルで、検索エンジンのクローラーやボットにアクセス可能なページとアクセス不可のページを指示します。Robots Exclusion Protocol標準に従います。

robots.txtはあくまでアドバイスであり強制力はありませんが、GoogleやBingなどの主要な検索エンジンはrobots.txtのディレクティブを尊重します。サイトマップ生成ツールと組み合わせて使用することを推奨します。

Robots.txtファイルの作成方法

当社のrobots.txt生成ツールを使えば、数秒でファイルを作成できます。

1
プリセットを選択

全許可、全ブロック、標準、AIボットブロックの4つのプリセットから選択、またはゼロから作成。

2
ルールを追加

User-Agentを選択し、特定のパスにAllowまたはDisallowディレクティブを設定。

3
Sitemapを設定

オプションでSitemap URLとcrawl-delayを設定。

4
ダウンロード

生成されたファイルをダウンロードしてウェブサイトのルートディレクトリにアップロード。

AIボットのブロック方法

AIクローラーによるコンテンツのスクレイピングをブロックするには、robots.txtに特定のUser-AgentとDisallowルールを追加します。当社のジェネレーターには「AIボットブロック」プリセットがあり、ワンクリックで主要なAIボットルールを追加できます。

OpenAI (GPTBot)をブロック:
User-agent: GPTBot Disallow: /
Anthropic (ClaudeBot)をブロック:
User-agent: ClaudeBot Disallow: /
Google AI Training (Google-Extended)をブロック:
User-agent: Google-Extended Disallow: /

Robots.txtの一般的な例

よく使われるrobots.txt設定の例を以下に示します。

全クローラーを許可:
User-agent: * Allow: / Sitemap: https://example.com/sitemap.xml
管理画面をブロック:
User-agent: * Disallow: /admin/ Disallow: /wp-admin/ Allow: /

関連ツール

Robots.txt生成ツールに関連する他のDNS Robotツールもご活用ください。

サイトマップ生成ツール

XMLサイトマップを作成

HTTPヘッダーチェック

セキュリティヘッダーを確認

リンクチェッカー

リンク切れを検出

CMS検出

ウェブサイトのCMSを検出

Robots.txtに関するよくある質問

robots.txtは、ウェブサイトのルートディレクトリに配置するテキストファイルで、検索エンジンのクローラーやボットにアクセス可能なページとアクセス不可のページを指示します。Robots Exclusion Protocol標準に従い、GoogleやBingなどの主要な検索エンジンがディレクティブを尊重します。ただし、あくまでアドバイスであり、悪意のあるボットは無視する場合があります。