Google SERP’lerde Yeni Sayfalar Neden Dalgalanıyor?

  • 26 Aralık 2018
  • Seo

Google SERP te Yeni Sayfalar Neden Dalgalanıyor? diye sormuşsunuzdur.. Mayıs 2018’de, Matt Southern, Search Engine Dergisi‘nde yeni içerik için sıralamadaki dalgalanmalar hakkında bir makale yayınladı . John Mueller, yeni bir içeriğin, sonuçta bir yere yerleşmeden önce arama sonuçlarında geri döndüğünü doğruladı. Konuşulmadan kalan, yeni içeriğin neden dalgalandığıydı. Google sürekli güncelleme yapıyorsa, neden dalgalanma var?

Özel bir Facebook Grubunda birisinin yeni sayfaların neden dalgalandığını sorduğu bir yazı gördüm.

Sunulan olası sebepler şunlardı:

  1. Kullanıcı metrikleri
  2. Daha sonra güncellenen geçici bir PageRank puanı
  3. Sayfanın ne kadar alakalı olduğunu test etmek için listeye tıklar

Bunlar, sıralamanın yeni sayfalar için neden dalgalandığına dair harika önerilerdir.

Google tarafından sunulan ve Gizli Kullanıcı Geri Bildirimlerine Dayalı Arama Sonucu Sıralamasını Değiştirme başlıklı bir patent vardır .

Bir web sayfasının kullanıcılara hitap edip etmediğini anlamak için, bir web sayfasının yanı sıra, bir web sayfasının arama motoru sonuç sayfalarında (SERP’ler) tıklanmadığında izlenmesi açıklanmaktadır. Ayrıca, geri dönmeden önce bir kullanıcının bir sitede ne kadar süre kalacağını da tartışır.

İşte ne diyor:

“… Bireysel belge sonuçlarının kullanıcı seçimlerini (tıklamaları) ve kullanıcının sonuçlar sayfasına ne zaman döndüğünü ve böylece kullanıcının seçilen belge sonucunu görüntülemek için harcadığı süreyi belirten” olduğunu belirler. ”

Bu sıralama dalgalanmalarına katkıda bulunabilir. Ancak bu, Google’ın arama dizinine eklenen yeni web sayfalarını test etmeye yönelik bir makale değildir. 

Çoğu, TO içeren tüm makaleler arama sonuçlarını iyileştirmek ve reklamcılık için tıklama oranlarını öngörmekle ilgili değilse.

Google’ın indexleme Sistemi

Cevabın Google’ın verileri nasıl depoladığı ile ilgili olduğuna inanıyorum. Google’ın indexi Kafein güncellemesinden bu yana sürekli. Kafein güncellemesi gerçekten Google Anında Arama adlı bir şey hakkındaydı. 2010 yılında, Google’ın tüm verilerinin depolanmasının temelini oluşturan yazılımlara BigTable ve Google Dosya Sistemi’ne Colossus adı verildi.

İndeksleme hakkında konuşurken, Kafein ve altta yatan Percolator sisteminden bahsediyoruz. İşte Percolator’ın nasıl çalıştığını  ve MapReduce’u kullanan eski Google Dosya Sistemi ile paralel hesaplamalar yapan yeni dağıtılmış dosya sistemi arasındaki değişimleri tartışan bir Google PDF belgesi .

Önemli bir ayrım, Percolator’ın eski sistemden 30 kat daha fazla bir ek yüke sahip olmasıdır. Bu nedenle, Google donanım atmaya devam ettiği sürece, sistem ölçeklendirmeye devam edebilir.

2010’daki Google dokümanının bu ek yük hakkında söyledikleri:

“Meta makinelerindeki birçok büyüklük sırasına göre doğrusal olarak ölçeklendirilen bir mimariyi seçtik, ancak bunun geleneksel veritabanı mimarilerine kıyasla 30 kat daha önemli bir ek yüke mal olduğunu gördük. … Dağıtılmış depolama sistemleri için ne kadar temeldir ve ne kadarı optimize edilebilir? ”

Bu, Google dokümanından Percolator ile ilgili kayda değer bir bölümdür:

“Percolator uygulamaları bir dizi gözlemci olarak yapılandırılmıştır; Her gözlemci bir görevi tamamlar ve “aşağı” gözlemciler için masaya yazarak daha fazla çalışma oluşturur.

İndeksleme sistemimizde, bir MapReduce, yükleyici işlemlerini çalıştırarak taranan dokümanları Percolator’a yükler ve bu da belgeyi indekslemek için belge işlemci işlemini tetikler (ayrıştırma, bağlantıları ayıkla, vb.). Belge işlemci işlemi, kümeleme gibi diğer işlemleri de tetikler. Kümeleme işlemi, değiştirilen belge kümelerini hizmet veren sisteme dışa aktarma işlemlerini tetikler.

Percolator uygulamaları çok az sayıda gözlemciden oluşur – Google indexleme sistemi yaklaşık 10 gözlemciye sahiptir. Her gözlemci açıkça işçi ikilisinin ana () bölümünde inşa edilmiştir, bu nedenle hangi gözlemcilerin aktif olduğu açıktır.

… En fazla bir gözlemcinin işlemi gözlemlenen bir sütunun her bir değişikliğini taahhüt edecektir. Bununla birlikte, görüşme doğru değildir: gözlemlenen bir sütuna birden çok yazma, ilgili gözlemcinin yalnızca bir kez çağrılmasına neden olabilir. Bu özellik mesajının çökmesi olarak adlandırıyoruz, çünkü birçok bildirime yanıt verme maliyetini düşürerek hesaplamanın önlenmesine yardımcı oluyor. Örneğin, http://google.com’un, onu gösteren yeni bir bağlantı bulmaktan ziyade periyodik olarak yeniden işlenmesi yeterlidir. 

Bu biraz ilginç, değil mi? Bir bağlantı her keşfedildiğinde bir sayfa veya etki alanı işlemek yerine periyodik bir yeniden işleme hakkında konuşuyor.

Bu, bir şeylerin güncellendiği, ancak sıralamadaki bir değişikliğin ortaya çıkacağı sıralama değişikliklerinde gecikmeye katkıda bulunabilir mi?

İşte Google’ın depolama sistemleriyle ilgili başka bir Google  belgesi (PDF) .

Bu belgede açıklanan ana noktalar şunlardır:

  1. Küme düzeyinde yapısal depolama
  2. Dağıtılmış, seyrek, sıralanmış haritayı dışa aktarır
  3. Büyüklük ve yüke bağlı olarak verileri böler ve yeniden dengeler
  4. Eşzamansız, sonunda tutarlı çoğaltma
  5. Dosya depolama için GFS veya Colossus kullanır

Link Grafiği Algoritmaları

Başka düşünceler var. Sana aşağıda yazdıklarımı okumak kez, sen neden sıralamaları yeni içerik için dalgalanma olduğunu kabul edebilir düşünüyorum olabilir çünkü Google’ın indeksleme ve bağlantı sıralama sistemi nasıl çalıştığının olun.

Mantıklı bir Açıklama

Bunun bir açıklama olabileceğini söylüyorum , çünkü sıralamada bir dalgalanma olduğu gerçeğini bildiğimiz halde, tam olarak bu dalgalanmaya neyin neden olduğunu açık bir şekilde ifade edemiyoruz. Bu nedenle, yalnızca bilineni araştırmak ve bu bilgiyle silahlı bir şekilde açıklama yapmak için elimizden gelenin en iyisini yapabiliriz.

Mantıklı bir açıklama saf spekülasyondan daha iyidir, çünkü neyin mümkün olduğunun bilgisi sizi gerçekten olanın aralığında tutar.

Link Grafikleri Nasıl Oluşturulur ve Korunur?

Bağlantı grafiği İnternet haritasıdır. Yeni bir bağlantı oluşturulduğunda veya yeni bir sayfa sayfası yayınlandığında, bağlantı grafiği değişir.

2009’daki bir Google patentine göre , bağlantı sıralama hesaplamasını verimli bir şekilde yapmanın bir yolu bağlantı grafiğini parçalara bölmektir. Her parça, bir şey değiştikten sonra sıralamaları bağımsız olarak güncelleyen ve yeniden hesaplayan bir dönüş alır.

Bir problemi birden fazla parçaya bölmek ve onları projenin küçük parçaları üzerinde çalışan ve ardından hepsini bir araya getirmek için size geri gönderen bir insan kalabalığına teslim etmek gibi pratik bir şey.

Bu patent, web sayfaları arasındaki bağlantıları sıralamak için bir sistemi açıklar. Yaptığı şey, İnternet’teki tüm web sayfalarının haritasını, kırık denilen parçalara bölmektir. Bu parçalar, bazen Google’ın indexi olarak adlandırdığımız web haritasının geri kalanından bağımsız olarak çözülmesi gereken küçük parçaları temsil ediyor.

İlginç olan, tüm bu hesaplamaların paralel olarak yapılmasıdır. Paralel olarak aynı anda demektir.

Web sayfalarını ve bağlantıları aynı anda ve sürekli olarak sıralamak, Google Anında Arama (veya Caffeine veya Colossus) olarak bilinen Google indexinin ne hakkında olduğunu gösterir.

Yukarıdaki paragrafta patentin tanımladığı şeyleri İngilizce olarak düzeltmiştim.

İşte 2009 patentinde belirtilenler:

“Bir sistem olup, aşağıdakileri içerir: aşağıdakileri içeren
işlemleri gerçekleştirmek için programlanmış çok sayıda bilgisayar sunucusu: web kaynaklarını ve bağlantılarını temsil eden yönlendirilmiş bir grafiğin parçalara bölünmesi, her bir parça, grafiğin ilgili birden fazla web kaynağını temsil eden bir bölümünü ve çoklu web kaynakları ile bağlantılı bağlantıları içerir; her bir parçanın, sunucuya atanan parçaya karşılık gelen grafiğin bir kısmı tarafından temsil edilen çoklu web kaynakları ile bağlantılı bağlantıları tarif eden verileri, ilgili sunucuların her birine tahsis etmek de dahil olmak üzere ilgili bir sunucuya tahsis etmek; ve paralel olarak, her bir parçadaki web kaynaklarının her biri için, birden fazla web kaynağı ile bağlantılı bağlantıları tarif eden veriler kullanılarak, parçanın atandığı sunucudaki en yakın tohum hesaplamasını kullanarak bir mesafe tablosunun hesaplanması. ”

Sayfada ayrıca, patent web tarayıcısının (diyagram elemanı # 204) İnterneti nasıl taradığını ve bilgileri veri merkezlerinde (diyagram elemanı # 208) nasıl sakladığını açıklamaktadır. Daha sonra indexleme ve sıralamadan sorumlu motor (şema no. 206), indexi, her şeyin sürekli bir şekilde sıralandığı noktalara böler.

Yukarıdaki paragraf, patentin aşağıda neyin ifade ettiğine dair İngilizce tercümemdir:

“Sıkıştırma, indeksleme ve sıralama modülü 206, bir bağlantı grafiği ve tohum olarak kullanılacak bağlantı grafiği düğümlerinin bir listesini alabilir. Ek olarak, modül 206, bağlantı grafiğini parçalara bölebilir ve yukarıda açıklandığı gibi çok sayıda parça sunucusu kullanarak en yakın tohum mesafelerini hesaplayabilir. ”

Checkpointing

Bu patentin zamandan bahseden kısmıdır. Her parça bağımsız olarak mevcut durumunun kontrol noktasını oluşturuyor ve güncelleniyor. İlginç olan, asenkronize olarak nasıl tanımlandığı.

Eşzamansız, hesapların bağımsız olarak, rasgele aralıklarla, herhangi bir zamanda yapılması anlamına gelir. Bu senkronizasyonun tam tersidir, yani güncelleme veya işleme başlamadan önce başka bir şeyin bitmesini beklemek zorunda kalır.

Şimdi, yuvarlanan bazda güncellenen bir index sistemi açıklamasına sahibiz. Her parça kendi zaman çizelgesine göre İnternet bölümünü günceller ve yeniden hesaplar.

Patent veri depolamak için RAM (bellek) kullanıldığını belirtir. Patent kaynaklarında tarif edilen zaman çizelgesi, bellek kaynaklarını optimize etmek için zamanlanmıştır.

Yukarıdakiler, patentte tarif edilenlerin İngilizce versiyonudur.

Bu, bellekten bahseden bölümdür ve yeniden hesaplanan web sayfası sıralamasının zamanlaması bütünleştirilmiştir:

“Daha spesifik olarak, yaprak tablası belirli bir boyuta ulaştığında, düğüm tanımlayıcı sıralı düzende bir disk dosyasına temizlenir, böylece uzaklık tablosu olduğu gibi sıralanır. Yıkama işlemi çok seyrek ya da çok yavaş gerçekleşirse, yaprak tablası izin verilen maksimum boyuta büyüyebilir, bu da sunucunun bellekte kalmamak üzere gelen güncellemeleri işlemeyi durdurmasına neden olabilir. Yaprak tablasının büyüklüğü, bellek tüketimi ile diske yazılan veri miktarı arasındaki farktır. Tablo büyüdükçe, varolan bir bellek içi yaprak girişini diske boşaltılmadan önce (yaprak disk alanı) temizleme şansı artar.

Önceden belirlenmiş zaman aralıklarında veya düşük aktivite zamanlarında veya birçok değişiklik toplandıktan sonra, her bir shard sunucusu mesafe tablosunun ve yaprak tablosunun artan bir kontrol noktasını güvenilir bir veri deposunda, örneğin bir mesafe tablosu artış dosyası ve GFS’deki bir yaprak tablosu artış dosyası. Yaprak tablası diğer zamanlarda da yıkanabilir. ”

Şimdi burada, güncellenen web sayfası sıralamasının ana indexe nasıl katlandığı açısından zamanın tekrar bahsedildiği patentin bir parçası.

Bir “kontrol noktası” nın web sayfalarının birbirleriyle olan bağlantılarında bir değişikliği temsil ettiğini belirtir.

Örneğin, birisi yeni bir web sayfası yayınladığında, söz konusu site içindeki bağlantı ilişkileri değişir. Denetim noktası bu değişikliği temsil eder.

Yukarıda benim düz İngilizce çeviri. Aşağıda patentin tarif ettiği şey:

“Kontrol noktası” terimi, bu tarifnamede, belirli bir parça sunucusuna ve belirli bir zaman aralığına ilişkin mesafe tablosunun bir kısmında durum değişikliğini tanımlayabilen bir veri yapısını tanımlamak için kullanılır.

Her kontrol noktası, bir zaman damgası ve önceki kontrol noktasındaki verilerdeki değişiklikleri temsil eden bir delta içerir. Parça sunucular genellikle GFS’ye birbirlerinden bağımsız olarak kontrol noktaları yazarlar ve düzenli aralık süreleri GFS kaynaklarına olan talebi kolaylaştırmak için sahte rastgele bir öğe içerebilir. Her parça sunucusu, GFS’ye belirli bir kontrol noktasının ne zaman yazılacağını belirlediğinden, işlem asenkrondir. ”

Yani orada var. Zamanlamanın RAM kullanımını optimize etmekle bir ilgisi olabilir, böylece aşırı yüklenmez. Sürekli güncellenen ve linkler sürekli ekleniyor bir site için sıralaması daha hızlı olabilir.

Sadece benim görüşüme göre, ancak sayfa veya web sitesi “yetkili” olduğu için bunun zorunlu olmadığına, ancak dizinin bu bölümünü güncellemekten sorumlu olan parçanın özellikle meşgul olduğu ve saklamak için bir kontrol noktası oluşturması gerektiğine inanıyorum. sorunsuz koşuyor.

Tecrübelerime göre, sıralama on ila onbeş gün arasında stabilize olma eğilimindedir. On binlerce sayfada çok fazla içerik varsa, deneyimime göre sıralama konumlarının dengelenmesi bir ay kadar sürebilir.

Arama Sonuçlarında Yeni Sayfalar Neden Hemen Çıkıyor?

“Google’ın arama sonuçlarında neden yeni sayfalar dalgalanıyor” gibi görünüşte basit bir sorunun cevabı olağanüstü karmaşık olabilir.

Google, tıklamaları ve kullanıcı memnuniyeti ölçümlerini takip ediyor gibi rastgele tahminleri atmak kolaydır. Ancak Google tarafından yayınlanan ve Google’ın tıkladığı tıklamaları desteklemek için yayınlanan bilimsel makalelerde ve patentlerde sıfır kanıt yoktur. Hiç bir kanıt olmadan , böyle bir sonuca inanmayı seçmek , bilgisizce cehalette bir alıştırmadır.

John Mueller basitçe yeni sayfaların aşırı dalgalanmalara maruz kaldığını söyledi (bu makalenin başındaki bağlantıda belirtildiği gibi). Bu makalede ana hatları çizdiğim gibi, birçok neden olabilir. Bu sebeplerin birçoğunu vurguladım

Bir önceki yazımız olan Oto Onaylı Blog Backlink Listesi 2019 başlıklı makalemizi de okumanızı öneririz.

Yorum Yazın