Yazeka
Arama sonuçlarına göre oluşturuldu
Robots.txt dosyasında bulunması gereken temel komutlar şunlardır:
- User-agent: Hangi bot veya tarayıcıların dosyadaki kurallara tabi olacağını belirtir 12. Örneğin,
User-agent: Googlebot
ile Google botlarına özel kurallar tanımlanabilir 1. - Disallow: Belirli bir dizin veya sayfanın arama motoru botları tarafından taranmasını engeller 13. Örneğin,
Disallow: /private/
komutu,/private/
dizinine erişimi engeller 3. - Allow: Daha önce
Disallow
ile engellenmiş olan belirli sayfalara erişim izni verir 3. - Sitemap: Arama motorlarına site haritasının URL'sini belirtir 12. Örneğin,
Sitemap: https://www.example.com/sitemap.xml
2. - Crawl-delay: Botların web sitesini tarama hızını kontrol etmek için kullanılır 14. Örneğin,
Crawl-delay: 15
komutu, botların 15 saniye aralıklarla bilgi çekmesini sağlar 1.
5 kaynaktan alınan bilgiyle göre: