Tarama istatistikleri

Yandex'in indeksleme robotu, sitelerin sayfalarını düzenli olarak atlar ve bunları arama veritabanına yükler. Aynı zamanda robot, erişilemezliklerinden dolayı ihtiyacınız olan tüm sayfaları indirmeyebilir.

Yandex Webmaster hangilerini bulmanızı sağlar Sitenizin sayfalarını bir robot atlıyor ve ortaya çıkarmak robotun yükleyemediği sayfaların adresleri Sitenin bulunduğu sunucunun kullanılamaması veya sayfaların içeriğindeki hatalar nedeniyle.

Sayfalarla ilgili veriler sayfadaki Web Yöneticisinde mevcuttur İndeksleme → Tarama istatistikleri. Bilgiler, robotun sayfaları ziyaret etmesinden sonraki altı saat içinde günlük olarak güncellenir.

Varsayılan olarak, hizmet bir bütün olarak site hakkında veri sağlar. Belirli bir bölümle ilgili bilgileri görüntülemek için site adresi kutusundaki listeden seçin. Mevcut bölümler aşağıdakilere karşılık gelir Yandex tarafından bilinen sitenin yapısına (manuel olarak eklenen bölümler hariç).

Aramada yer alması gereken tüm sayfalar listede yoksa, aracı kullanarak bunları bildirin Sayfaların dönüştürülmesi.

Sayfalarla ilgili bilgiler, dikkate alınarak XLS veya CSV formatında yüklenebilir uygulanan filtrelerin.

Not

Veriler 20 Şubat 2017'den itibaren mevcuttur.

Sayfaların durumunun dinamikleri

Sayfalarla ilgili bilgiler aşağıdaki gibi sunulmuştur:

  • Yeni ve değişmiş olanlar — Robotun ilk kez atladığı sayfa sayısı ve robotun kendilerine bir sonraki başvurusundan sonra durumu değişen sayfalar.
  • Baypas geçmişi — Sunucunun yanıt kodunu dikkate alarak robotun atladığı sayfa sayısı.

Arama veritabanındaki sayfa değişiklikleri

Robot sayfaya bir sonraki erişimde yanıtın HTTP kodu değişmişse değişiklikler görüntülenir. Örneğin, bir 200 OK, oldu 404 Not Found. Yalnızca sayfanın içeriği değiştiyse, bununla ilgili bilgiler Web Yöneticisine yansıtılmaz.

Değişiklikleri görüntülemek için anahtarı şu konuma getirin: Son değişiklikler. Sonuç olarak, 50.000'e kadar değişiklik görüntülenecektir.

Web Yöneticisi sayfalarla ilgili aşağıdaki bilgileri gösterir:

  • robot tarafından sayfanın son ziyaret edildiği tarih (tarama tarihi);
  • sitenin kök dizinine göre sayfa adresi;
  • sayfayı ziyaret ederken robot tarafından alınan sunucu yanıt kodu.

Bu bilgilere dayanarak, robotun sitenin sayfalarını ne sıklıkta atladığını öğrenebilir, ayrıca robotun veritabanında yeni hangi sayfaların göründüğünü ve robotun tekrar eriştiğini anlayabilirsiniz.

Sayfanın arama veritabanında görünmesi

Robotun ilk kez geçtiği sayfa için sütunda Vardı N/a durumu görüntülenir ve sütunda Oldu — sunucunun yanıtı (örneğin, 200 Tamam).

Arama veritabanına başarılı bir şekilde yüklendikten sonra, arama veritabanına en yakın güncellemeleri içeren arama sonuçlarında sayfa görünebilir. Bununla ilgili bilgilere sayfada erişilebilir hale gelir Aramadaki sayfalar.

Robotun sayfaya yeniden erişmesi

Robot daha önce sayfayı atladıysa, sayfaya tekrar eriştiğinizde durum değişebilir: sütunda Vardı Robotun önceki ziyareti sırasında alınan sunucu yanıtı sütunda görüntülenir Oldu - Son erişimde alınan sunucu yanıtı.

Örneğin, aramaya katılan sayfaya robot tarafından erişilemez hale geldi. Bu durumda, aramanın dışında tutulur. Bundan bir süre sonra onu hariç tutulanlar listesinde sayfasında Aramadaki sayfalar.

Aramadan kaldırılan sayfa, kullanılabilirliğini kontrol etmek için arama veritabanında da kalabilir. Kural olarak, robot, bağlantılar ona yönlendirildiği veya dosyada kapatılmadığı sürece böyle bir sayfaya erişmeye devam eder robots.txt.

Robotun atladığı sayfaların listesi

Sayfa listesini görmek için radyo düğmesini şu konuma getirin: Tüm sayfalar. Liste, sitenin en fazla 50.000 sayfasını içerebilir.

Robotun atladığı site sayfalarının listesini ve bunlarla ilgili aşağıdaki bilgileri görüntüleyebilirsiniz:

  • robot tarafından sayfanın son ziyaret edildiği tarih (tarama tarihi);
  • sitenin kök dizinine göre sayfa adresi;
  • Robot tarafından sayfa son yüklendiğinde sunucu yanıt kodu.

Öneri

Listede siteden zaten kaldırılmış veya mevcut olmayan sayfalar görüntüleniyorsa, robot muhtemelen diğer kaynakları ziyaret ederken bunlara bağlantılar bulur. Robotun gereksiz sayfalara erişmeyi bırakması için yönergeyi kullanarak bunların dizine eklenmesini önleyin Disallow dosyada robots.txt.

Veri filtreleme

Robotun arama veritabanındaki sayfalar ve değişikliklerle ilgili bilgiler, sunulan tüm parametrelere (tarama tarihi, sayfa URL'si, sunucu yanıt kodu) göre filtrelenebilir . Aşağıda açıklanan birkaç örnek vardır:

Sunucunun yanıtına göre

Robotun atladığı ancak 404 Not Found sunucusunun yanıtı nedeniyle yükleyemediği sayfaların bir listesini yapabilirsiniz.

Aynı zamanda, anahtarı konumuna getirerek robotun erişemeyeceği yeni sayfaları belirlemek mümkündür Son değişiklikler:

Ayrıca — anahtarı konumuna ayarlayarak robotun erişemeyeceği sayfaların genel bir listesini alın Tüm sayfalar:

Belirli bir adres parçasını gösteren URL'ye göre

Adresi belirli bir parça içeren sayfaların bir listesini yapabilirsiniz. Bunu yapmak için listeden değeri seçin İçerir ve alana istediğiniz değeri belirtin.

Özel karakterleri gösteren URL'ye göre

Özel karakterler, bir dizeye sıkı bir şekilde karşılık gelmemeyi, normal ifadeler kullanarak başlangıcını, alt dizesini ve daha karmaşık koşulları ayarlamanıza izin verir. Bunları kullanmak için listeden bir değer seçin Şartlar ve Koşullar ve alana koşulun kendisini girin. Birkaç koşul ekleyebilirsiniz — her biri yeni bir satırla başlamalıdır.

Koşullar için kurallar mevcuttur:

  • koşullardan herhangi birini yerine getirmek ("VEYA" operatörüne karşılık gelir);
  • tüm koşulları yerine getirmek ("VE" operatörüne karşılık gelir).

Filtrelemek için kullanılan semboller

Sembol

Açıklama

Örnek

*

Herhangi bir karakterden herhangi bir sayıya karşılık gelir

İle başlayan tüm sayfalardaki verileri görüntüleyin https://example.com/tariff/, belirtilen sayfa dahil: /tariff/*

Sembolün kullanımı *

* sembolü, iki veya daha fazla belirli öğe içeren URL'leri ararken yararlı olabilir.

Örneğin, belirli bir yıla ait haberleri veya duyuruları bulabilirsiniz: /news/*/2017/.

@

Seçilen veriler belirtilen dizeyi içerir (ancak kesinlikle eşleşmesi gerekmez)

URL'si belirtilen dizeyi içeren tüm sayfalardaki verileri görüntüleyin: @tariff

~

Koşul normal bir ifadedir

URL'lerini karşılayan sayfalara göre verileri görüntüleyin normal ifadeye. Örneğin, adreslerinde bir veya daha fazla sözü olan tüm sayfaları seçebilirsiniz ~table |sofa |bed

!

Koşulun reddi

URL'si satırla başlayan sayfalara göre verileri hariç tutun https://example.com/tariff/: !/tariff/*

Karakterleri kullanırken büyük/küçük harfe duyarlı değildir.

Semboller @, !, ~ sadece satırın başında kullanılabilir, bunlar için aşağıdaki kombinasyonlar mevcuttur:

Operatör

Örnek

!@

URL'si tariff içeren sayfalara göre verileri hariç tutun: !@tariff

!~

URL'si normal ifade koşullarını karşılayan sayfalara göre verileri hariç tutun

Sorular ve Cevaplar

Siteyi ben oluşturdum ve hala dizine eklenmemiş

Sitenin oluşturulmasından bu yana çok az zaman geçmiş olabilir. Robotu site hakkında bilgilendirmek için, web sitesini ekleyin Web Yöneticisine ve hakları onaylayın ona. Ayrıca sunucuda herhangi bir kesinti olup olmadığını kontrol edin. Sunucu bir hata verirse, robot dizine eklemeyi durdurur ve genel tarama sırasına göre bir sonraki denemeyi yapacaktır.

Yandex çalışanları, arama veritabanına sayfa eklemeyi hızlandıramaz.

Bir sitenin aranması için ne kadar beklemeniz gerekiyor?

Sitelerin dizine eklenmesinin zamanlamasını tahmin etmiyoruz ve belirli bir sitenin dizine ekleneceğini garanti etmiyoruz. Kural olarak, robotun bir site hakkında bilgi sahibi olduğu andan sayfalarının arama sonuçlarında görünmesine kadar birkaç günden iki haftaya kadar sürer.

"Tarama Geçmişi" grafiğinde erişim sayısı azaldı veya arttı

Yandex robotunun atladığı sayfa sayısı farklı günlerde azalabilir veya artabilir. Böyle bir değişiklik, sitenin dizine eklenmesini ve arama sonuçlarındaki sıralamayı etkilemez.

Bunu fark ettiyseniz:

Sunucumdan gizli bilgileri indirmeye çalıştınız. Ne yapmalı?

Robot diğer sayfalardan bağlantılar alır, bu da bir sayfanın sitenizin gizli bölümlerine bağlantılar içerdiği anlamına gelir. Bunları hem bir parola ile kapatabilir hem de dosyada Yandex robotunun yasaklanmasını belirleyebilirsiniz robots.txt. Her iki durumda da robot gizli bilgileri indirmeyecektir.

Destek ekibine yazın



Ayrıca hizmete yükseltebilirsiniz