DNS RobotDNS Propagation Checker
Ana SayfaDNSWHOISIPSSL
DNS RobotDNS Propagation Checker

Yeni nesil DNS yayılım kontrol aracı

Gizlilik PolitikasıKullanım KoşullarıHakkımızdaİletişim

DNS Araçları

DNS SorgulamaAlan Adından IP'yeNS SorgulamaMX SorgulamaCNAME SorgulamaTümünü gör

E-posta Araçları

SPF Kayıt KontrolüDMARC KontrolüDKIM KontrolüSMTP Test AracıE-posta Başlık AnaliziTümünü gör

Web Sitesi Araçları

WHOIS SorgulamaAlan Adı Müsaitlik KontrolüAlt Alan Adı BulucuCMS AlgılayıcıBağlantı AnaliziTümünü gör

Ağ Araçları

Ping AracıTraceroutePort KontrolüHTTP Başlık KontrolüSSL Sertifika KontrolüTümünü gör

IP Araçları

IP SorgulamaIP Adresim NedirIP Kara Liste KontrolüIP'den Hostname'eASN SorgulamaTümünü gör

Yardımcı Araçlar

QR Kod OkuyucuQR Kod OluşturucuMors Kodu ÇeviriciMetinden İkiliye ÇeviriciKüçük Metin OluşturucuTümünü gör
© 2026 DNS Robot. Geliştiren: ❤ Shaik Brothers
Tüm sistemler çalışıyor
Made with
  1. Ana Sayfa
  2. /
  3. Tüm Araçlar
  4. /
  5. Robots.txt Oluşturucu

Robots.txt Oluşturucu — Robots.txt Dosyası Yapıcı

Ücretsiz görsel editörle robots.txt dosyalarını oluşturun, özelleştirin ve indirin. Hazır ayarlar arasından seçin, 20+ tarayıcı için kurallar ekleyin, GPTBot ve ClaudeBot gibi yapay zeka botlarını engelleyin ve robots.txt dosyanızı saniyeler içinde oluşturun.

Ücretsiz SEO AracıRobots.txt OluşturucuAI Bot DesteğiGörsel Editör
Quick Presets

Start with a common configuration and customize as needed

Crawler Rules
Define which paths each crawler can or cannot access
Additional Options
Applied to the wildcard (*) user-agent only. Google ignores crawl-delay.
Generated robots.txt
# robots.txt generated by DNS Robot (https://dnsrobot.net/robots-txt-generator)
# Generated: 2026-02-26T23:58:51.516Z

User-agent: *
Allow: /
1 rule6 lines

Robots.txt Dosyası Nedir?

Robots.txt dosyası, web sitenizin kök dizinine yerleştirilen (örn. example.com/robots.txt) ve arama motoru tarayıcılarına ve botlara sitenizin hangi sayfalarına veya bölümlerine erişebileceklerini ve erişemeyeceklerini söyleyen düz metin dosyasıdır. Robots Exclusion Protocol standardını takip eder. Tavsiye niteliğinde olsa da (zorunlu değil), Google ve Bing gibi tüm büyük arama motorları robots.txt yönergelerine uyar.

Sitemap oluşturucu ile XML sitemap dosyanızı, link analizi ile sayfa bağlantılarınızı da kontrol edebilirsiniz.

Robots.txt Dosyası Nasıl Oluşturulur

Robots.txt dosyası oluşturmak basittir.

1
Hazır Ayar Seçin

Tümüne İzin, Tümünü Engelle, Standart veya AI Botları Engelle hazır ayarlarından birini seçin ya da sıfırdan başlayın.

2
Tarayıcı Kuralları Ekleyin

Bir kullanıcı ajanı seçin ve belirli yollar için Allow (İzin) veya Disallow (Engelle) yönergeleri ayarlayın.

3
Sitemap Ekleyin

İsteğe bağlı olarak Sitemap URL'si ve tarama gecikmesi (crawl-delay) ayarlayın.

4
İndirin

robots.txt dosyanızı indirin ve web sitenizin kök dizinine yükleyin.

Robots.txt Yönergeleri Referansı

Robots.txt dosyaları tarayıcı davranışını kontrol etmek için çeşitli yönergeler kullanır.

TarayıcıUser-agent

Kuralların hangi tarayıcıya uygulanacağını belirler. '*' tüm tarayıcılar, 'Googlebot' yalnızca Google anlamına gelir.

EngelleDisallow

Belirtilen yola erişimi engeller. Örn: Disallow: /admin/ admin dizinini engeller.

İzinAllow

Belirtilen yola erişime açıkça izin verir. Daha geniş bir Disallow kuralını geçersiz kılmak için kullanılır.

SitemapSitemap

XML sitemap dosyanızın konumunu bildirir. Tüm User-agent blokları dışında yer alır.

Robots.txt ile AI Botları Nasıl Engellenir

AI tarayıcılarının içeriğinizi kazımasını engellemek için robots.txt dosyanıza belirli User-agent ve Disallow kuralları ekleyin. GPTBot (OpenAI), ClaudeBot (Anthropic), Google-Extended (Google AI eğitimi) ve CCBot (Common Crawl) en yaygın AI botlarıdır. Oluşturucumuzun 'AI Botları Engelle' hazır ayarı tek tıkla tüm büyük AI bot kurallarını ekler.

Not: robots.txt tavsiye niteliğindedir — iyi niyetli botlar bu kurallara uyar, ancak kötü niyetli botlar görmezden gelebilir. Gerçek erişim kontrolü için sunucu taraflı yöntemler (.htaccess kuralları, güvenlik duvarları) kullanın.

Robots.txt En İyi Uygulamalar

Robots.txt dosyanızı yapılandırırken şu en iyi uygulamaları izleyin: Arama motorlarının dizine eklemesini istediğiniz içeriği engellemeyin. CSS ve JavaScript dosyalarını engellemeyin — Google bunlara sayfalarınızı oluşturmak için ihtiyaç duyar. Gizli içerik için robots.txt'ye güvenmeyin — güvenlik mekanizması değildir. Sitemap yönergesini her zaman ekleyin. Değişiklik yaptıktan sonra HTTP başlık kontrolü ile robots.txt dosyanızın erişilebilir olduğunu doğrulayın.

İlgili Araçlar

Robots.txt oluşturucuya ilişkin diğer DNS Robot araçlarını da kullanabilirsiniz.

Sitemap Oluşturucu

XML sitemap oluşturun

Link Analizi

Sayfa bağlantılarını analiz edin

HTTP Başlık Kontrolü

Sunucu başlıklarını kontrol edin

DNS Sorgulama

DNS kayıtlarını kontrol edin

Robots.txt Hakkında Sık Sorulan Sorular

Robots.txt dosyası, web sitenizin kök dizinine yerleştirilen (örn. example.com/robots.txt) ve arama motoru tarayıcılarına ve botlara sitenizin hangi sayfalarına erişebileceklerini söyleyen düz metin dosyasıdır. Robots Exclusion Protocol standardını takip eder. Tavsiye niteliğinde olsa da tüm büyük arama motorları bu yönergelere uyar.