SEO Çalışma Saatleri – 17 Eylül 2021
Yayınlanan: 2021-09-21Bu, 17 Eylül 2021'de John Mueller ile Google SEO Çalışma Saatleri'nden alınan en ilginç soruların ve yanıtların bir özetidir .
Kelime sınırları
09:05 “[Kategori] sayfalarında kullanmamız gereken kelimelerin sınırı nedir?”
John böyle bir sınırın olmadığını belirterek, “[…] özellikle kategori sayfalarında konunun ne olduğunu anlamamız için sayfada biraz bilgi sahibi olmanız gerekiyor. Ancak bu genellikle çok az bilgidir. Ve çoğu durumda, ürünlerin adları bizim anlayabileceğimiz kadar açıksa, zaten listelediğiniz ürünlerden anlıyoruz. […] Ancak bazen ürün adlarını anlamak biraz zor olabilir ve o zaman oraya bir bağlam eklemek mantıklı olabilir. Ancak genellikle bir veya iki veya üç cümle boyutunda ek bağlamdır.”
Dizin Kapsamı metriklerinde değişiklik yok
10:57 “Birkaç milyon sayfalık büyük bir web sitesinde çalışıyorum. İki dil arasında yönlendirme yaptık. […] Yani göç iyi gidiyor, trafik ikinci yoldan ilerliyor. Sadece açıklığa kavuşturmak için, iki alt klasör veya aynı etki alanındaki her şey arasındaki bir izdüşümdür. Burada belirtmek istediğim şey, bu yönlendirmeyi yaptıktan yaklaşık üç hafta sonra Kapsam ölçümlerinde herhangi bir değişiklik görmememizdir. […] Geçerli sayfaları bırakmak yok, yeniden yönlendirmeler veya benzeri nedenlerle hariç tutulan sayfalarda bir artış yok. Bunun için endişelenmeli miyiz?”
“Bu tür şeylerin görünür olması için sabit bir zaman çizelgesi olduğunu düşünmüyorum. […] Bir web sitesinde sayfaları farklı bir hızda tararız. Ve bazı sayfaları her gün yeniden tarayacağız ve diğer sayfaları belki ayda bir veya birkaç ayda bir yeniden tarayacağız. Bu nedenle, birleştirdiğiniz bu klasörlerdeki içerik çok nadiren taranan içerikse, bunun yansıtılması uzun zaman alacaktır. Oysa çok aktif bir şekilde taranan içerikse, oradaki değişiklikleri genellikle, bilmiyorum, yaklaşık bir hafta içinde görmelisiniz.”
Dizin Kapsamı raporunun güncellemeleri
13:25 İki alt klasörü birleştirirken, “[…] trafik sitenin bir bölümünden diğerine gidiyor. Her şey yolunda gidiyor ve bunu günlük dosyalarında da görüyoruz. […] Ancak bunu Kapsam metriklerinde görmüyoruz. Bunun bir raporlama hatası olabileceğinden veya bütün gün beklememiz gerektiğinden endişe duyuyoruz?”
John, “[…] Dizin Kapsamı raporu belki haftada iki kez güncellenir. […] Search Console'daki raporların çoğu haftada bir veya iki kezdir, bu nedenle bu sadece bir gecikme olabilir. Ancak trafiğin doğru sayfalara gittiğini görüyorsanız, Performans Raporuna bakıyorsanız ve bu tür bir değişim görüyorsanız, bence bu gayet iyi. Bunun gibi bir şey için Dizin Kapsamı raporuna dikkat etmeniz gerektiğini düşünmüyorum. Çünkü genellikle böyle sayfaları birleştirdiğinizde olan şey, sistemlerimizin ilk önce bu sayfalar için yeni bir kural bulmamız gerektiğini anlaması gerektiğidir. Yani iki sayfa alıyorsun, onları tek sayfa halinde katlıyorsun. Sonra bunun bir dizi sayfa olduğunu görüyoruz, bir kanonik seçmemiz gerekiyor ve bu işlem biraz zaman alıyor. Ve bunun raporlara yansıması biraz zaman alıyor. Oysa temiz bir site taşıma gibi bir şey yaparsanız, o zaman her şeyi aktarabiliriz. Çözmemiz gereken bu kanonikleştirme sürecimiz yok. Bu yüzden orada görünür olmanın daha uzun sürdüğünü hayal edebiliyorum.”
Web sitesinin kalitesini anlamak
15:22 “Benim sorum […] Google gelip onu aradığında ve anlamaya çalıştığında […] özellikle yeni sayfalara sahip algoritmalarla ilgili. Daha sonra bu sayfaları sitedeki eski eski sayfalarla karşılaştırıyor ve "tamam, peki, bu sayfalar harika, ancak bu çok daha eski sayfalar aslında çöp" diyor mu? Böylece yeni sayfaların ve kategori sayfalarının kalitesini etkileyecektir. Bu, web sitesinin kalitesini gerçekten anlamak için algoritmaların yaptığı bir şey mi?”
John, “[…] Bir web sitesinin kalitesini genel olarak anlamaya çalıştığımızda, bu sadece çok zaman alan bir süreçtir. Ve orada – bilmiyorum – oldukça uzun bir teslim süresi var. Dolayısıyla, halihazırda 10.000 sayfası olan bir web sitesine beş sayfa eklerseniz, muhtemelen önce sitenin çoğuna odaklanacağız ve sonra zamanla bunun yeni içerikle nasıl yerleştiğini göreceğiz; orada da."
geçen bağlantı öz sermayesi
17:06 “Eğer bir geri bağlantı alırsanız, [Google] bunun sadece kaliteli bir geri bağlantı olduğunu varsaymayacak ve bu nedenle bağlantı hakkını körü körüne siteye iletmeyecektir. Peki Google, bu geri bağlantıları tararken, yönlendirme trafiğine bakıp bunu algoritmaya dahil ediyor mu? Ya da bu bilgiyi görmezse, sanırım, o bağlantıya tıklama eğiliminin yüksek olup olmadığını değerlendirmeye çalışır mı? Ve, o bağlantıya tıklamak için yüksek bir eğilim varsa, o zaman bağlantı eşitliğini geçecekler mi? Eğer yoksa, bildiğinizi söyleyin, […] kelimenin tam anlamıyla bir blog oluşturabilir ve şimdi bağlantı kurabilirsiniz. Bu durumda Google, aslında trafik olmadığını söylüyor; Burada gerçekten çok fazla bir şey olmuyor, o halde neden herhangi bir bağlantı eşitliği biçimini geçelim? […] Bu tür bir bağlantı, bir siteye bağlantı eşitliğinin geçip geçmediğiyle ilgili mi?”
"Öyle düşünmüyorum. Bir bağlantının nasıl değerlendirilmesi gerektiğini değerlendirmeye çalışırken bağlantı üzerinden trafik gibi şeyleri kullanmayız. Bildiğim kadarıyla, birisinin bir bağlantıya nasıl değer vermemiz gerektiğiyle ilgili olarak tıklama olasılığı gibi şeylere de bakmıyoruz. Çünkü bazen bağlantılar esasen yalnızca referanslardır ve insanların bir sayfadaki her bağlantıya tıklamasını beklemek o kadar da fazla değildir . Ama birisi sitenize atıfta bulunuyorsa ve şunu söylüyorsa, bunu yapıyorum çünkü buradaki uzman bunu yap dedi. O zaman insanlar o bağlantıya tıklamayacaklar ve her zaman […] sitenize bakıp orada yazılanları onaylamayacaklar. Ama bunu neredeyse bir referans gibi görecekler. […] Daha fazla bilgi bulmaları gerekiyorsa oraya gidebilirlerdi. Ama buna ihtiyaçları yok. Ve bu bakış açısından, iş bağlantının değerini değerlendirmeye geldiğinde bunu dikkate alacağımızı sanmıyorum.”
Alan sitesi geçişi
20:53 “ Bir alan adından yeni bir alana site alan adı geçişi yaptık ve tüm geçiş gereksinimlerine ve önerilerine uyduk. Yönlendirmeleri, kurallı etiketleri güncelledik ve önceden bir geliştirme ortamında test ettik. Yeni mülkü ekledik ve yeni etki alanını Google Search Console'da doğruladık. Adres Değişikliği yaparken, ana sayfadan 301 yönlendirmesi olduğunu ve eski etki alanını alamadığını söyleyen bir doğrulama başarısız hatası alıyoruz. Adres Değişikliği aracının doğrulamasını nasıl geçeceğiz?”
“Her şeyden önce, akılda tutulması gereken en önemli şey, Adres Değişikliği aracının, geçişlerle ilgili olarak kullandığımız ekstra bir sinyal olduğudur. Bu bir gereklilik değil. Bu nedenle, herhangi bir nedenle Adres Değişikliği aracının web siteniz için çalışmasını sağlayamazsanız, yönlendirmeyi doğru şekilde ayarladıysanız, tüm bu şeyler, o zaman ayarlamalısınız. Kesinlikle yapmanız gereken bir şey değil. Çoğu sitenin […] aslında bu aracı kullanmadığını hayal ediyorum. Bu daha çok Search Console'u bilenler ve tüm bu tür süslü şeyleri bilenler gibi bir şey, onu kullanıyor olabilirler. Neden başarısız olabileceğine gelince, sitenizin adını veya orada test ettiğiniz URL'leri bilmeden söylemek gerçekten zor.
Gördüğüm bir şey, web sitenizin bir www ve www olmayan bir sürümünüz varsa ve bunu adım adım yönlendirirseniz. Örneğin, www olmayan sürüme yönlendirme yaparsınız ve ardından yeni etki alanına yönlendirme yaparsınız. O zaman, Adres Değişikliğini sitenin birincil sürüm olmayan sürümünde gönderirseniz, bu bizi fırlatabilir. Bu nedenle, Adres Değişikliği aracıyla ilgili olarak, şu anda dizine eklenmiş olan veya şu anda dizine eklenmiş sürümü gönderdiğinizi veya Search Console'daki alternatif sürümü gönderdiğinizi iki kez kontrol etmek bir şey olabilir."
Birden çok Şema türü ekleme
23:36 “Bir sayfaya birden fazla Şema türü ekleyebilir miyim? Cevabınız evet ise, hem SSS şemasını hem de tarif şemasını tek bir sayfada birleştirmenin en iyi yolu ne olabilir?”
“ Sayfanıza istediğiniz kadar yapılandırılmış veri koyabilirsiniz. Ancak çoğu durumda, arama sonuçlarında gösterdiğimiz zengin sonuçlar söz konusu olduğunda, yalnızca bir tür yapılandırılmış veri veya bir zengin sonuç türü seçme ve yalnızca buna odaklanma eğilimindeyiz. Dolayısıyla , sayfanızda birden fazla yapılandırılmış veri türü varsa, bu türlerden birini seçme şansımız çok yüksektir ve bunu gösteririz. Bu nedenle, arama sonuçlarında belirli bir türün gösterilmesini istiyorsanız ve arama sonuçlarına baktığınızda birleşik kullanım olmadığını görürseniz, o zaman yalnızca birleştirmeye değil, istediğiniz türe odaklanmaya çalışırdım. başka şeylerle. İdeal olarak, gerçekten istediğiniz birini seçin ve buna odaklanın.”

404'ler ile taranabilirlik ve dizine eklenebilirlik karşılaştırması
24:39 “ GSC Tarama İstatistikleri raporumuz, sitemizin bir parçası OLMAYAN 404 sayfalık sürekli bir artış gösteriyor (bunlar site haritamızda mevcut değiller ve dahili arama tarafından oluşturulmuyorlar). URL'lerimize eklenen Google aramaları gibi görünüyorlar ve Google bunları taramaya çalışıyor. Tarama yanıtı dökümü altında, bu 404'ler tarama yanıtının %40'ından fazlasını oluşturur. Bunun taranabilirliğimizi ve dizine eklenebilirliğimizi olumsuz etkilemediğinden nasıl emin olabiliriz?”
“Her şeyden önce, URL'ler oluşturmuyoruz, bu nedenle Google'da arama yapıp ardından web sitenizde URL'ler oluşturmuyoruz. Sanırım bunlar internette bulduğumuz rastgele bağlantılar. […] Yani bu her zaman olan bir şey. Ve bu bağlantıları buluyoruz ve sonra onları tarıyoruz. 404 döndüğünü görüyoruz ve sonra onları görmezden gelmeye başlıyoruz. Yani pratikte, bu ilgilenmeniz gereken bir şey değil. […] Genellikle, bu tür bağlantılarda olan şey, genel olarak web siteniz için hangi URL'leri taramamız gerektiğini ve hangi URL'leri hangi sıklıkta taramamız gerektiğini bulmaya çalışırız. Ve kesinlikle ne yapmamız gerektiğini, ek olarak ne yapabileceğimizi düşündükten sonra hesaba katıyoruz. Ve bence, çok dereceli bir URL kümesi gibi olan bu ek kovada, esasen bu, örneğin kazıyıcı sitelerden rastgele bağlantılar da içerecektir. Bu nedenle, sitenizde bu rastgele bağlantılardan gelen çok sayıda URL'yi taradığımızı görüyorsanız, esasen, sizin için önemli olduğunu düşündüğümüz, önemsediğimiz şeylerin taranmasını zaten bitirdiğimizi varsayabilirsiniz. sitesi için önemlidir. Sunucunuzda sadece zamanımız ve kapasitemiz var ve başka şeyler de deneyeceğiz. Bu açıdan bakıldığında, bu 404'lerin web sitenizin taranmasıyla ilgili sorunlara neden olacağı anlamına gelmez. Bu, web siteniz için yeterli kapasiteye sahip olduğumuzun neredeyse bir işaretidir. Ve web sitenize gerçekte bağladığınızdan daha fazla içeriğiniz varsa, muhtemelen onu da tarar ve dizine ekleriz. Yani aslında, neredeyse iyiye işaret gibi ve bunları kesinlikle robots.txt ile engellemeniz gerekmiyor, bastırmanız gereken bir şey değil […]”
Diğer ülkelerden gelen trafiği engelleme
27:34 “ Yalnızca Fransa'da faaliyet gösteren bir hizmet web sitemiz var. Ve gerçekten kötü bant genişliğine sahip diğer ülkelerden gelen çok fazla trafik alıyoruz ve bu da CWV puanlarımızın düşmesine neden oluyor. […] Fransa dışında faaliyet göstermediğimiz için, onun dışındaki trafik için herhangi bir kullanımımız yok. Diğer ülkelerden gelen trafiğin engellenmesi önerilir mi?”
John şöyle dedi: “Diğer ülkelerden gelen trafiği engellemekten kaçınmaya çalışırdım. Bence bu nihayetinde size kalmış bir şey. Bu sizin web siteniz; ne yapmak istediğinizi seçebilirsiniz. […] Bu durumda, akılda tutulması gereken şeylerden biri, ABD'deki neredeyse tüm web sitelerini taradığımızdır. Dolayısıyla, Fransa'da yaşıyorsanız ve diğer tüm ülkeleri engellerseniz, Googlebot'un taramasını da engellersiniz . Ve sonra, esasen, içeriğinizin hiçbirini dizine ekleyemezdik. Bu açıdan, diğer ülkeleri engellemek istiyorsanız, en azından Googlebot'un tarama yaptığı ülkeyi engellemediğinizden emin olun. En azından aramayı önemsiyorsan.”
Sayfaların yeniden gruplandırılması
35:38 “ Google kısa süre önce sitemizde CWV puanları açısından gözle görülür şekilde farklı sayfalar olan >30.000 sayfayı yeniden gruplandırdı. […] Bu, yeniden gruplandırmadan önce ürün sayfalarımızın ortalama 2,5 saniye olmasına rağmen, bu sayfalar için ortalama LCP'yi 3,4 saniyeye çıkardı. Sayfaları eşiğin 2,5 saniye altında almak için çalışıyorduk, ancak taktiklerimiz artık ulaşmamız gereken puana ulaşmamız için çok önemsiz görünüyor. Gruplandırma mı yapılıyor ve ardından puan ortalaması mı alınıyor yoksa puan alınıp ardından gruplandırma mı yapılıyor? – (bu, 2.5'lerin altındaki ürün sayfalarını almanın sorunu çözmeye yardımcı olup olmayacağını belirlememize yardımcı olacaktır).”
“[…] Gruplandırmayı nasıl yaptığımıza dair net veya kesin bir tanımımız yok çünkü bu, bir web sitesi için sahip olduğumuz veri miktarına bağlı olarak zaman içinde biraz gelişmesi gereken bir şey. Dolayısıyla, bir web sitesinde çok sayıda farklı türde sayfa için çok fazla veriye sahipsek, sistemlerimizin gruplandırmayı eskisi kadar kaba yerine biraz daha ayrıntılı yapacağımızı söylemesi çok daha kolay olur. Oysa elimizde çok fazla veri yoksa, tüm web sitesini tek bir grup olarak aldığımız bir duruma bile gidebiliriz. Yani tek şey bu. Diğeri ise topladığımız veriler saha verilerine dayanmaktadır. Bunu Search Console'da da görüyorsunuz, yani tek tek sayfaların ortalamasını alıp sadece sayfa sayısına göre ortalamayı almamız o kadar da önemli değil. Ancak pratikte olan, bazı sayfaların çok daha fazla trafiğe sahip olacağı ve orada daha fazla veriye sahip olacağımız anlamında daha çok trafik ağırlıklı bir ortalama olmasıdır. Diğer sayfalar daha az trafiğe sahip olacak ve orada çok fazla veriye sahip olmayacağız. Bu, bu tür farklılıkları gördüğünüz bir şey olabilir. Ana sayfanıza çok sayıda insan gidiyorsa ve tek tek ürünlere çok fazla kişi gitmiyorsa, o zaman orada daha fazla veriye sahip olduğumuz için ana sayfanın ağırlığı biraz daha yüksek olabilir. Bu yüzden oraya gideceğim yön budur ve pratikte bu, tek tek sayfalara çok fazla odaklanmak yerine, hangi sayfaların veya hangi sayfa türlerinin olduğunu bulmanız gereken Google Analytics veya diğer analizler gibi şeylere bakma eğiliminde olurdum. çok trafik alıyorlar. Ve sonra, bu sayfaları optimize ederek, esasen Kullanıcı Deneyimini iyileştirmeye çalışıyorsunuz […] ve bu, oradaki Önemli Web Verileri puanlaması için almaya çalışacağımız bir şey. Bu nedenle, esasen, sayfa sayısı genelinde daha az ortalama alma ve insanların web sitenize geldiklerinde gerçekte gördüklerinin trafiği genelinde daha fazla ortalama alma.”
MUM algoritması
42:44 “ MUM algoritmasının ortaya çıkmasıyla birlikte, arama sonuçları birden çok kaynağa yanıt mı olacak? Yani kullanıcı bir konu aradığında, cevaplar birden fazla kaynaktan seçiliyor ve ona paket olarak sunuluyor mu? Gelecekte rekabetin, rakipler arasında bir tür etkileşim haline geleceğini düşünüyoruz. Birlikte bir arayıcının ihtiyaçlarını karşılayabilirler. Siteler daha iyi sunabilecekleri hizmetlere odaklanır. Birkaç rakip, arama yapanların ihtiyaçlarını karşılayabilir. Kullanıcı ihtiyaçları portföyü, daha iyi tanındıkları en iyi hizmet için rekabet eden birkaç site tarafından tamamlanıyor.”
John, “Bilmiyorum; belki bir noktada bu olur. Arama sonuçlarında, belirli bir konu hakkında çok güçlü veya farklı görüşler gibi şeyler olduğunu söyleyebildiğimizde, çeşitli seçenekler sunmaya çalışmak gibi bir düşüncemiz var . Ve bu, orada hangi görüşlerin olduğu sorusudur. O zaman, o konu için farklı açıları kapsayan çeşitli sonuçlar kümesi gibi bir şey sağlamak mantıklı olabilir. Bunun çoğu sorgu için geçerli olduğunu düşünmüyorum, ancak bazen bu, hesaba katmaya çalıştığımız bir şey.”
Site taşıma
47:11 “ Ya bir site geçişi yaparken ve tetiği çektiğimiz gün, biz: robots.txt her iki etki alanını da engeller […], 302 geçici yönlendirme yaparsak (birkaç gün veya hafta içinde Devs hiçbir şeyden emin olduktan sonra 301 saniyeye geçersek) bozuldu) ve Devs bozuk bir şey olup olmadığını kontrol ederken site genelinde bir gün veya birkaç saat boyunca 503 HTTP durumu sunuyor mu?“
John'a göre, “[…] Bunların hepsi ayrı durumlar. Ve diyeceğimiz gibi değil, bu, bu varyasyonla bir site hareketi. Ama bir şeyleri engelliyorsanız, bir şeyler bozulursa, o zaman her şeyden önce bunu bozuk bir şey olarak görürüz. Ve daha sonraki bir aşamada bunların gerçekten yeniden yönlendirildiğini görürsek, o zaman, şimdi sitenin yeniden yönlendirildiğini söyleyebiliriz. Ve bunları ayrı devletler olarak ele alırdık. Yani siteyi hareket ettirmek istediğiniz gün, sunucunuzda bir şeyler bozulur ve her şey bozulursa, o zaman iyi göreceğiz, sunucuda her şey bozuk. Amacınızın bir site taşımak olduğunu bilemeyiz çünkü her şeyin bozulduğunu göreceğiz. Bu bakış açısından, bunları ayrı devletler olarak ele alırdım. Ve elbette, herhangi bir bozuk durumu olabildiğince çabuk düzeltmeye çalışın ve esasen bundan sonra mümkün olduğunca çabuk geçişe geçin."
Bir haber sitesinden eski içeriği kaldırma
49:42 “Bir haber sitesinde eski haberleri kaldırmaya/dizine eklememeye/eski habere izin vermemeye bakmaya değer mi? 10+ yaşında gibi haberler mi? Genel olarak web sitesinin kalitesine bir şey yapıyor mu ve tarama bütçesini optimize ediyor mu? Üzerinde 3+ milyon sayfa bulunan bir site. Buna bir şey yapar mı?”
“Sadece eski haberleri kaldırarak çok fazla değer elde edeceğinizi sanmıyorum. Ayrıca haber sitelerine tavsiye edeceğim bir şey değil çünkü bazen tüm bilgiler hala faydalı oluyor. Bu açıdan, SEO nedenleriyle bunu yapmazdım. Kullanılabilirlik veya bakım nedeniyle içeriği kaldırmak veya web sitenizdeki bir arşiv bölümüne koymak istemenizin nedenleri […], kesinlikle yapabileceğiniz bir şey. Ancak eski içeriği eski olduğu için körü körüne kaldırmam.”
