SEO Çalışma Saatleri, 1 Temmuz 2022

Yayınlanan: 2022-07-19

Bu, 1 Temmuz 2022'de John Mueller ile Google SEO Çalışma Saatleri'nden alınan en ilginç soruların ve yanıtların bir özetidir .

İçindekiler gizle
1 PageSpeed ​​Insights veya Google Arama Konsolu ‒ hangisi daha doğru?
2 Googlebot neden JavaScript tabanlı sayfaları dizine eklemekte zorlanıyor?
3 HTTP sayfalarına bağlantı vermek web sitenizin SEO'sunu etkiler mi?
4 Reddetme dosyanızı silmeli misiniz?
5 Taramayı robots.txt veya robots meta etiketi ile engellemek daha mı iyi?
6 Aynı URL'yi birden çok site haritası dosyasına yerleştirebilir misiniz?
7 Gömülü video sayfalarının indekslenmesi nasıl engellenir?

PageSpeed ​​Insights veya Google Arama Konsolu ‒ hangisi daha doğru?

0:44 “Web sitemde PageSpeed ​​Insights puanımı kontrol ettiğimde basit bir sayı görüyorum. Bu, Search Console ve Önemli Web Verileri raporunda gördüklerimle neden eşleşmiyor? Bu rakamlardan hangisi doğrudur?”

John'a göre: “[…] Konu hız olduğunda ‒ web sitenizin kullanıcılarınız için nasıl performans gösterdiğini anlamak söz konusu olduğunda doğru bir sayı yoktur . PageSpeed ​​Insights'ta, varsayılan olarak, farklı şeylerin kullanıcılar için biraz daha hızlı veya daha yavaş olduğunu varsaydığımız bir dizi varsayıma dayanan, 0 ile 100 arasında bir puan olan tek bir sayı gösterdiğimize inanıyorum. Ve buna göre bir puan hesaplıyoruz.

Search Console'da hız, yanıt verme ve etkileşim için üç sayıya dayanan Önemli Web Verileri bilgilerine sahibiz . Ve bu sayılar elbette biraz farklıdır, çünkü sadece bir sayı değil, üç sayıdır. Ancak, bu sayıların belirlenme biçiminde de büyük bir fark var. Yani, sözde saha verileri ile laboratuvar verileri arasında bir fark vardır.

Saha verileri, kullanıcıların web sitenize gittiklerinde gördükleridir. Ve bu, Search Console'da kullandığımız şeydir. Arama için de bunu kullanıyoruz. Laboratuar verileri, web sitenizin teorik bir görünümüdür, sistemlerimizin düşündükleri yerde belirli varsayımlara sahip olduğu, ortalama bir kullanıcı muhtemelen böyledir, bu tür bir cihaz kullanarak ve belki de bu tür bir bağlantı ile. Ve bu varsayımlara dayanarak, ortalama bir kullanıcı için bu sayıların ne olabileceğini tahmin edeceğiz. Bu tahminlerin asla %100 doğru olmayacağını hayal edebilirsiniz.

Benzer şekilde, bazı kullanıcıların gerçekten hızlı bir bağlantıya veya hızlı bir cihaza sahip olabileceği ve web sitelerinde veya web sitenizi ziyaret ettiklerinde her şeyin hızlı gittiği ve diğerlerinin de değişmeyebileceği durumlarda, kullanıcıların gördüğü ‒ veriler de zamanla değişecektir. buna sahip ol. Ve bu nedenle, bu varyasyon her zaman farklı sayılarla sonuçlanabilir.

Bizim tavsiyemiz, genel olarak, web sitemizin mevcut durumunun ne olduğunu anlamanın bir yolu olarak Search Console'da göreceğiniz veriler olan saha verilerini kullanmak ve ardından laboratuvar verilerini, yani çalıştırabileceğiniz bireysel testleri kullanmaktır. web sitenizi optimize etmek ve bir şeyleri iyileştirmeye çalışmak için doğrudan kendiniz. Web sitenizin yeni sürümüyle elde ettiğiniz laboratuvar verilerinden oldukça memnun olduğunuzda, zamanla otomatik olarak gerçekleşen saha verilerini toplayabilir ve kullanıcıların bunu daha hızlı veya daha hızlı olarak görüp görmediğini iki kez kontrol edebilirsiniz. hem de daha duyarlı.

Yani kısacası yine bu metriklerden herhangi biri söz konusu olduğunda doğru bir sayı yoktur. […] Ama daha ziyade, farklı varsayımlar ve veri toplamanın farklı yolları var ve bunların her biri birbirinden çok farklı.”

Googlebot neden JavaScript tabanlı sayfaları dizine eklemekte zorlanıyor?

4:19 “Bir robots.txt veya site haritası dosyası olmadan Next.js kullanan birkaç müşteri sayfamız var. Teorik olarak, Googlebot bu sayfaların tümüne ulaşabilir, ancak neden yalnızca ana sayfa dizine ekleniyor? Search Console'da herhangi bir hata veya uyarı yok. Googlebot neden diğer sayfaları bulamıyor?”

John, “[…] Next.js bir JavaScript çerçevesidir, bu da tüm sayfanın JavaScript ile oluşturulduğu anlamına gelir. Ancak Google neden her şeyi dizine eklemiyor ‒ gibi tüm bu sorulara genel bir yanıt da olabilir ‒ öncelikle şunu söylemek önemlidir: Googlebot hiçbir zaman bir web sitesindeki her şeyi dizine eklemeyecektir. Google'ın her şeyi tamamen dizine eklemesinin önemsiz olmayan herhangi bir web sitesinde olduğunu sanmıyorum. Pratik bir bakış açısından, tüm web'deki her şeyi indekslemek mümkün değildir. İdeal durumun her şey olduğu varsayımı dizine eklenir ‒ Bunu bir kenara bırakıp Googlebot'un önemli sayfalara odaklanmasını istediğinizi söyleyebilirim.

Yine de, kişi Twitter'da benimle iletişime geçtiğinde ve web siteleri hakkında bana biraz daha bilgi verdiğinde biraz daha netleşen diğer şey, web sitesinin diğer sayfalara bağlantı oluşturma şekliydi. Google'ın yakalayamadığı bir şekilde. Bu nedenle, özellikle JavaScript ile, bir HTML sayfasındaki herhangi bir öğeyi alabilir ve birisi buna tıklarsa bu JavaScript parçasını yürütün diyebilirsiniz. Ve bu JavaScript parçası, örneğin farklı bir sayfaya gitmek olabilir. Ve Googlebot ne olduğunu görmek için tüm öğeleri tıklamaz, bunun yerine, bir web sitesindeki tek tek sayfalara bağlanmanın geleneksel, normal yolu olan normal HTML bağlantılarını ararız.

Ve bu çerçeve ile bu normal HTML bağlantılarını oluşturmadı. Bu yüzden taranacak daha çok sayfa, bakılacak daha çok sayfa olduğunu anlayamadık. Ve bu, JavaScript sitenizi uygulama şeklinizde düzeltebileceğiniz bir şeydir. Arama Geliştirici Belgeleri sitesinde JavaScript ve SEO ile ilgili, özellikle de bağlantılar konusunda tonlarca bilgiye sahibiz çünkü bu ara sıra ortaya çıkıyor. Bağlantı oluşturmanın birçok yaratıcı yolu vardır ve Googlebot'un bu HTML bağlantılarını çalışması için bulması gerekir. […]”

Google resmi belgeleri dışında, blogumuzdaki JavaScript SEO için Ultimate Guide'a göz atın.

HTTP sayfalarına bağlantı vermek web sitenizin SEO'sunu etkiler mi?

7:35 “Sayfamın harici, güvenli olmayan bir web sitesine bağlantı vermesi SEO puanımı olumsuz etkiler mi? Yani HTTP'de, HTTPS'de değil."

John, “Birincisi, bir SEO puanı fikrimiz yok, bu yüzden SEO puanı hakkında endişelenmenize gerek yok.

Ancak, ne olursa olsun, sorunun şöyle olduğunu anlıyorum: HTTPS sayfası yerine bir HTTP sayfasına bağlanırsam sorun olur mu? Ve bizim açımızdan, gayet iyi. Bu sayfalar HTTP'deyse, bağlantı vereceğiniz şey budur. Kullanıcıların bulmayı umduğu şey budur. Bu tür sitelere bağlantı verilmesine karşı hiçbir şey yoktur. Web sitenizin eski veya huysuz oldukları ve HTTPS'deki kadar havalı olmadıkları için HTTP sayfalarına bağlantı vermekten kaçınmasının bir dezavantajı yoktur. Bunun için endişelenmezdim.”

Reddetme dosyanızı silmeli misiniz?

10:16 “Son 15 yılda toplamda 11.000'den fazla bağlantıyı reddettim. […] Reddettiğim bağlantılar, saldırıya uğramış sitelerden veya saçma sapan, otomatik olarak oluşturulmuş içeriklerden gelmiş olabilir. Google artık bu tür saldırıya uğramış veya spam içerikli bağlantıları algoritmalarına dahil etmemek için daha iyi araçlara sahip olduklarını iddia ettiğinden, reddedilen dosyamı silmeli miyim? Sadece silmenin herhangi bir riski veya dezavantajı var mı?”

John yanıtladı, “[…] Bağlantıları reddetmek her zaman bu zor konulardan biridir, çünkü Google muhtemelen size tam bilgi vermiyor gibi görünüyor.

Ancak bizim bakış açımıza göre […] bu bağlantıları hesaba katmamak için çok çalışıyoruz. Ve bunu yapıyoruz çünkü bağlantıları reddetme aracının biraz niş bir araç olduğunu biliyoruz ve SEO'lar bunu biliyor, ancak bir web sitesi işleten ortalama bir kişinin bu konuda hiçbir fikri yok. Ve bahsettiğiniz tüm bu bağlantılar, herhangi bir web sitesinin yıllar içinde aldığı bağlantı türüdür. Ve sistemlerimiz, bunların algoritmalarımızı oynamak için yapmaya çalıştığınız şeyler olmadığını anlıyor.

Dolayısıyla, bu bakış açısından, bu bağlantılarla ilgili olarak çözmeniz gereken manuel bir eylemin etrafında hiçbir şey olmadığından eminseniz, reddedilen dosyayı siler ve […] tüm bunları bir kenara bırakırdım. Şahsen yapacağım bir şey, onu indirmek ve bir kopyasını çıkarmak, böylece sildiklerinizin bir kaydına sahip olursunuz. Ama aksi takdirde, bunların İnternet'teki normal, huysuz şeyler olduğundan eminseniz, onu siler ve devam ederdim. Web siteleri söz konusu olduğunda, web üzerindeki herhangi bir web sitesinin başına gelen bu rastgele şeyleri reddetmekten çok daha fazla zaman harcayabilirsiniz.”

Robots.txt veya robots meta etiketi ile taramayı engellemek daha mı iyi?

14:19 “Hangisi daha iyi: robots.txt ile engellemek mi yoksa sayfadaki robots meta etiketini kullanmak mı? Taramayı en iyi nasıl önleriz?”

John: “[…] Geçenlerde bununla ilgili bir podcast bölümü de yaptık . Bu yüzden bunu kontrol edecektim. […]

Uygulamada, burada küçük bir fark vardır, eğer SEO'daysanız ve arama motorlarıyla çalıştıysanız, muhtemelen bunu zaten anlıyorsunuzdur. Ancak bölgede yeni olan insanlar için, bazen tüm bu hatların tam olarak nerede olduğu belirsizdir.

Soruda bahsettiğiniz ilk robots.txt ile taramayı engelleyebilirsiniz. Böylece Googlebot'un sayfalarınıza bakmasını bile engelleyebilirsiniz. Ve robots meta etiketiyle, Googlebot sayfalarınıza baktığında ve o robots meta etiketini gördüğünde, dizine eklemeyi engellemek gibi şeyler yapabilirsiniz. Pratikte, bu sonuçların her ikisi de sayfalarınızda arama sonuçlarında görünmüyor, ancak bunlar çok farklı.

Yani eğer sürünemezsek, o zaman neyi kaçırdığımızı bilmiyoruz. Ve diyebiliriz ki, aslında, bu sayfaya birçok referans var. Belki bir şey için yararlıdır. Bilmiyoruz. Ve sonra bu URL, içeriğine bakmadan arama sonuçlarında görünebilir çünkü ona bakamayız. Oysa robots meta etiketi ile sayfaya bakabilirsek, meta etiketine bakabilir ve örneğin orada bir noindex olup olmadığını görebiliriz. Ardından o sayfayı dizine eklemeyi durdurur ve ardından onu arama sonuçlarından tamamen çıkarırız.

Bu nedenle, taramayı engellemeye çalışıyorsanız, kesinlikle robots.txt gitmeniz gereken yoldur. Sayfanın arama sonuçlarında görünmesini istemiyorsanız, uygulamanız için hangisi daha kolaysa onu seçerdim. Bazı sitelerde, bu sayfanın Arama'da bulunmasını istemediğimi belirten bir onay kutusu ayarlamak daha kolaydır ve ardından bir noindex meta etiketi ekler. Diğerlerinde, belki robots.txt dosyasını düzenlemek daha kolaydır. [Bu] orada neye sahip olduğunuza bağlı.”

Aynı URL'yi birden çok site haritası dosyasına yerleştirebilir misiniz?

16:40XML site haritalarınızda farklı niteliklere sahip yinelenen URL'lere sahip olmanın olumsuz sonuçları var mı? Örneğin, bir site haritasında hreflang ek açıklamalı bir URL ve bu ek açıklama olmadan başka bir site haritasında aynı URL."

John, “[…] Bizim bakış açımıza göre, bu gayet iyi. […] Bu ara sıra olur. Bazı kişilerin site haritası dosyalarında özel olarak ayrılmış hreflang ek açıklamaları vardır ve ardından her şey için normal bir site haritası dosyasına da sahiptirler. Ve orada bir miktar örtüşme var.

Bizim açımızdan, bu site haritası dosyalarını elimizden geldiğince işliyor ve tüm bu bilgileri dikkate alıyoruz. Birden çok site haritası dosyasında aynı URL'ye sahip olmanın dezavantajı yoktur.  

Dikkat edeceğim tek şey, bu site haritası dosyalarında çakışan bilgilerin olmaması. Yani, örneğin, hreflang ek açıklamalarıyla, bu sayfa Almanya için diyorsanız ve diğer site haritası dosyasında, aslında bu sayfa aynı zamanda Fransa için de diyorsanız […] sistemler gibi olabilir, peki, burada neler oluyor? Bu ek açıklama karışımıyla ne yapacağımızı bilmiyoruz. Ve sonra birini veya diğerini seçmemiz olabilir.

Benzer şekilde, bu sayfa en son 20 yıl önce değişti derseniz […] ve diğer site haritası dosyasında aslında 5 dakika önceydi diyorsunuz. O zaman sistemlerimiz buna bakıp, biriniz hatalı diyebilir. Hangisi olduğunu bilmiyoruz. Belki birini ya da diğerini izleriz. Belki o son değişiklik tarihini tamamen görmezden geleceğiz. Yani dikkat edilmesi gereken şey bu.

Ancak aksi takdirde, birden fazla site haritası dosyasından bahsediliyorsa ve bilgiler tutarlıysa veya birlikte çalışıyorsa, birinin son değişiklik tarihi olabilir, diğerinde hreflang ek açıklamaları olabilir, bu tamamen iyi.”

Gömülü video sayfalarının indekslenmesi nasıl engellenir?

19:00 “Bir video yeniden oynatma platformundan sorumluyum ve yerleştirmelerimiz bazen ayrı ayrı dizine ekleniyor. Bunu nasıl önleyebiliriz?”

John yanıtladı: “[…] Web sitesine baktım ve bunlar, içine gömülü bir video oynatıcı içeren basitleştirilmiş bir HTML sayfası içeren iframe'ler.

Teknik açıdan bakıldığında, bir sayfanın iframe içeriği varsa, o zaman bu iki HTML sayfasını görürüz. Ve sistemlerimizin bu HTML sayfalarının her ikisini de ayrı HTML sayfaları oldukları için dizine eklemesi mümkündür. Genellikle biri diğerine dahildir, ancak teorik olarak kendi başlarına da ayakta durabilirler.

Bunu önlemenin bir yolu da robots meta etiketleriyle yapabileceğiniz oldukça yeni bir kombinasyondur; bu, indexifembedded robots meta etiketi ile bir noindex robots meta etiketidir .

Ve gömülü sürümde, yani doğrudan içinde video bulunan HTML dosyası, noindex artı indexifembedded robots meta etiketlerinin kombinasyonunu eklersiniz. Ve bu, o sayfayı tek tek bulursak, bir noindex [etiket] olduğunu göreceğimiz anlamına gelir. Bunu indekslemek zorunda değiliz.

Ancak indexifembedded ile bize şunu söylüyor […] bu sayfayı genel web sitesine gömülü video ile bulursak, o video içeriğini indeksleyebiliriz, bu da tek tek HTML sayfasının indekslenmeyeceği anlamına gelir. Ancak, normal olarak dizine eklenecek olan video bilgilerini içeren gömülü HTML sayfası. Yani orada kullanacağım kurulum bu. Ve bu oldukça yeni bir robots meta etiketi, yani herkesin ihtiyaç duymadığı bir şey. Çünkü bu iframe içeriği veya gömülü içerik kombinasyonu nadirdir. Ancak bazı siteler için bunu böyle yapmak mantıklı.”