2019년 3월 19일 – Google 도움말 행아웃 메모

게시 됨: 2019-03-28

이 웹마스터 도움말 행아웃에서 John Mueller가 몇 가지 훌륭한 질문에 답변했습니다. 다음은 가장 도움이 될 것이라고 생각한 것들입니다.

현재 브랜드를 변경하고 사이트의 한 부분을 새 도메인으로 마이그레이션하고 있습니다. 그들은 현재 좋은 순위를 기록하고 있습니다. Google은 이 콘텐츠를 이전과 동일하게 취급합니까, 아니면 다르게 취급합니까?

0:34

John Mueller 2019년 3월 19일 행아웃 도움말

새 도메인에서도 확실히 할 수 있습니다. 일반적으로 웹사이트 사이트를 별도의 부분으로 분할하면 해당 부분을 개별적으로 살펴봐야 합니다. 따라서 일종의 페이지당 페이지에서 해당 페이지를 재평가해야 합니다. 그래서, 당신은 확실히 그렇게 순위를 매길 수 있지만, 다른 상황이 될 것이기 때문에 당신이 이전과 정확히 같은 순위를 가질 것이라고 말할 수 있는 경우는 아닙니다. 다른 웹사이트 설정이 있을 것입니다.


요약: 콘텐츠는 다른 맥락에 있으며 페이지별로 재평가됩니다. 다시 순위가 좋아질 수 있지만 과거에 했던 것과 정확히 같은 순위가 아닐 수도 있습니다.


3월 12일 핵심 알고리즘 업데이트가 8월 1일 업데이트와 관련이 있습니까?

20:20

John Mueller 2019년 3월 19일 행아웃 도움말

이것이 8월의 업데이트와 어떤 관련이 있는지 모르겠습니다. 그래서 제 말은 일반적으로 우리가 알고리즘 업데이트를 할 때 우리는 하나의 상태로 시도하고 작업하고 새로운 상태를 향해 노력합니다. 때로는 알고리즘이 약간 과도하다고 인식하는 부분을 개선하고 때로는 인식하는 부분을 개선합니다. 알고리즘이 충분하지 않았습니다. 따라서 이러한 종류의 알고리즘 변경은 일반적으로 알고리즘 업데이트만으로 완전히 정상이라고 생각합니다.


요약 : 이러한 종류의 알고리즘 변경은 완전히 정상입니다. 때때로 Google은 검색 결과를 개선하기 위해 조정을 시도합니다. 그러나 이 둘은 관련이 없습니다.


관련 없는 용어와 의약품에 대한 순위를 매기기 시작했습니다. 우리는 우리가 해킹당했다고 믿습니다. 이것이 사실인지 확인할 수 있는 방법이 있습니까?

27:22

John Mueller 2019년 3월 19일 행아웃 도움말

그래서 내 의심은 아마도 당신이 결국 해킹 당했을 수 있다는 것입니다. 그래서 나는 당신의 웹 사이트를 모르지만 일반적으로 이것은 웹 사이트가 제약 용어에 대한 순위를 매기기 시작할 때 무작위로 발생하는 것이 아니라 아마도 그렇지 않은 방식으로 해킹되었을 수 있다는 것입니다. 당신 자신에게서 완전히 명백합니다. 그래서 당신이 할 수 있는 일은 Search Console로 이동하여 검색 분석 섹션에서 이들에 대한 순위가 매겨진 페이지를 확인하고 URL 검사 도구, 거기에 있는 실시간 가져오기 옵션을 사용하여 Googlebot이 볼 때 이 페이지가 어떻게 보이는지 확인하는 것입니다. 그 페이지와 때때로 우리는 시각적인 부분에서 때때로 HTML에서 볼 수 있습니다. 실제로 누군가가 그 페이지에 많은 제약 링크를 추가한 것을 볼 수 있습니다. 이것은 아마도 이 페이지에서 해킹된 것이 있다는 일종의 신호입니다. 때로는 웹 사이트가 과거에 해킹당하고 해킹을 정리할 때 약간 남아 있는 것이기도 합니다. 그래서 그것들은 내가 거기에서 볼 방향의 종류입니다. 나는 정상적인 웹사이트가 아무 이유 없이 갑자기 약학적 용어로 순위가 매겨진다고 가정하지 않을 것입니다. 그래서 일반적으로 그 뒤에 무언가가 있습니다.


요약 : Search Console의 Search Analytics 섹션에서 어떤 페이지의 순위를 확인할 수 있으며, URL 검사 도구를 사용하면 HTML을 확인할 수 있고 추가된 링크가 있는지 확인할 수 있습니다. 해킹. 정리한 후에도 남아 있을 수 있습니다.


스팸성 백링크 자체를 거부하는 것 외에 백링크를 거부할 때 참조되는 다른 모든 URL을 거부해야 합니까?

30:45

John Mueller 2019년 3월 19일 행아웃 도움말

아니요, 따라서 문제가 있는 링크인 경우 해당 링크는 고려되지 않습니다. 전체 웹사이트, 다른 사람의 웹사이트에서 귀하의 웹사이트로 이동하는 모든 것이 문제라고 생각되면 전체 도메인을 거부합니다. 그것이 당신의 기지를 덮는 가장 쉬운 방법이지만 잘못된 링크가 있는 해당 페이지를 가리키는 다른 모든 링크로 체인을 다시 따라갈 필요는 없습니다. 거부해야 하는 링크는 단 하나뿐인 경우가 많습니다. 그리고 종종 실제로 거부할 필요가 없습니다. 직접 조치를 취한 경우가 아니면 링크를 보고 다음 주에 Google에서 직접 조치를 취하지 않을 것입니다. 그러면 일반적으로 거부 도구를 전혀 사용할 필요가 없습니다.


요약 : 귀하에게 링크되는 사이트의 부자연스러운 링크를 거부하는 것에 대해서만 걱정하면 됩니다.


동적으로 페이지를 생성하는 웹사이트가 있습니다. 사용자가 Oxford의 Programmers를 검색하는 경우 우리는 Programmers에 대한 정보를 가져오고 Oxford에 대한 정보를 가져와 함께 통합하는 페이지를 생성하는 데이터베이스를 가지고 있습니다. 이와 같이 구축된 사이트에 대한 권장 사항이 있습니까?

38:56

John Mueller 2019년 3월 19일 행아웃 도움말

나는 당신이 거기에있는 설정에 대해 약간 걱정할 것입니다. 데이터베이스에서 많은 덩어리를 가져와서 해당 페이지의 조합을 자동으로 생성하는 것처럼 들리고 이러한 변형이 매우 얇고 품질이 낮을 수 있으며 이러한 변형에 대한 콘텐츠가 많지 않고 이러한 모든 조합으로 수천 개의 페이지를 만들고 콘텐츠의 실제 양이 매우 적은 상황에 빠르게 직면하게 됩니다. 그래서 Google 측에서 일어날 수 있는 일은 우리가 이 모든 페이지를 크롤링하고 색인을 생성하는 것입니다. 그리고 우리는 여기에 너무 많은 것들이 있는 것처럼 우리가 이 모든 것을 집어들 수 있지만 두 번째 단계에서 우리가 볼 때 세부 사항은 실제로 여기에 실제로 유용한 정보가 많지 않으며 특히 다른 웹 사이트의 기존 피드에서 작업을 수행하는 경우와 같습니다. 그런 다음 우리가 보는 것은 기본적으로 일부 도시 정보, 일부 역할 정보, 다른 곳에서 이미 캡처한 구인 목록과 같은 혼합입니다. 우리는 이를 전반적으로 살펴보고 다음과 같이 말합니다. 우리가 이 모든 조합에 대해 이미 인덱싱한 것들에 더하여 인덱싱됩니다. 거기에서 까다로운 부분이 있다고 생각합니다. 바로 이 부분에서 뛰어들고 말해야 합니다. 실제로 내가 조합하는 방식은 모든 것과 완전히 다를 수 있습니다 또 다른. 사람들이 이 페이지를 방문할 때 이것이 기존 피드의 조합과 비슷하지만 실제로는 지금까지 아무도 포착하지 못한 정말 환상적인 것이 있다는 것을 이 페이지를 통해 추가할 수 있는 많은 가치가 있습니다.


요약 : 사이트가 이런 식으로 구축된 경우 주의하십시오. Google이 이러한 페이지의 색인을 생성할 때 귀하의 정보를 약간만 수집하게 됩니다. 이 예에서 Google은 도시와 직업 설명에 대한 약간의 정보를 볼 수 있습니다. 그러면 전체 사이트에서 이것을 볼 수 있습니다. 이것은 얇은 콘텐츠로 보일 수 있으며 사용자에게 추가 가치가 없기 때문에 색인을 생성하지 않을 수 있습니다.


이런 내용이 마음에 든다면 제 뉴스레터도 마음에 드실 겁니다!

저희 팀과 저는 매주 최신 Google 알고리즘 업데이트, 뉴스 및 SEO 팁을 보고합니다.

성공!! 이제 이메일을 확인하여 Google 업데이트 뉴스레터 구독을 확인하십시오.

구독을 제출하는 동안 오류가 발생했습니다. 다시 시도해 주세요.

Q 0:34 리브랜딩 및 사이트 이전 관련 질문입니다. 예, 동일한 질문을 다시 하기를 원하십니까? 따라서 문제는 - 우리는 웹사이트의 한 부분 또는 일부를 마이그레이션하고 싶습니다. 브랜드 변경을 위해 새 도메인에 100-102페이지를 추가합니다. 현재 우리는 이러한 세그먼트에 대해 좋은 순위를 매기고 있지만 새 도메인에서 이러한 세그먼트에 대해 좋은 순위를 매길 수 있습니까? 아니면 Google과 같이 독립 또는 별도의 비즈니스/웹사이트로 취급될 것입니까?

A 1:09 새 도메인에서도 확실히 할 수 있습니다. 일반적으로 웹사이트 사이트를 별도의 부분으로 분할하면 해당 부분을 개별적으로 살펴봐야 합니다. 따라서 일종의 페이지당 페이지에서 해당 페이지를 재평가해야 합니다. 그래서, 당신은 확실히 그렇게 순위를 매길 수 있지만, 다른 상황이 될 것이기 때문에 당신이 이전과 정확히 같은 순위를 가질 것이라고 말할 수 있는 경우는 아닙니다. 다른 웹사이트 설정이 있을 것입니다.

Q 1:54 이전에 GSC를 사용할 때 "랜딩 페이지" 옵션이 있었습니다. 그 방문 페이지에서 URL을 가져왔을 때 어떤 키워드가 순위를 매겼는지 알 수 있었습니다. 지금 이것에 대한 대안이 있습니까?

A 2:14 어떤 키워드가 어떤 검색어에 대해 순위를 매기는지 확인하는 방법은 무엇입니까? 검색 분석 섹션에 있어야 합니다. 문제가 없어야 합니다.

Q 2:35 이전 [방법]에 대한 정확한 보기에서 검색 콘솔에서 어떤 방문 페이지를 볼 수 있었습니다.

A 2:45 그러면 어떤 방문 페이지가 표시되는지 확인하시겠습니까?

Q 2:52 음, 그거 좀 알려주시겠어요?

A 2:52 네, 기본적으로 새로운 GSC에서 검색 분석 기능은 이전 검색 콘솔의 검색 분석 기능과 매우 유사하기 때문입니다. 따라서 방문 페이지, 클릭 및 쿼리 및 노출, 위치를 볼 수 있어야 합니다....

Q 3:18 예, 하지만 지금은 Google 검색 콘솔에 제출한 내 웹사이트에 대한 정보만 볼 수 있습니다. 이전에는 해당 웹사이트의 순위가 매겨진 웹사이트 키워드에 대한 정보를 볼 수 있었습니다.

A 3:23 아니요, 아니요. 제가 아는 한 검색 콘솔에는 없었습니다. 그래서 보고 있었던 건 아닐까...?

Q 3:32 아니요. 아직 작동하는 계정이 하나 있기 때문입니다. 나는 당신에게 그것을 보여줄 것입니다

A 3:37 좋습니다. 검색 콘솔에 데이터를 표시하려면 사이트를 확인해야 하기 때문입니다. 따라서 귀하가 확인하지 않은 제3자 웹사이트에 대한 클릭 및 노출 데이터를 볼 수 있는 경우는 없습니다.

Q 3:54 하지만 이전에는

A 5:56 Search Console에는 없습니다... 예, 검색 콘솔에 있어서는 안 되며 검색 콘솔에도 나오지 않아야 합니다.

Q 4:15 또 다른 질문입니다. 페이지 매김과 인용에 대한 지침이 있습니까?

A 4:17 페이지 매김, 페이지 매김에 대한 많은 지침이 있습니다! 페이지 매김에 대한 도움말 센터 문서가 있습니다. 이있다…

Q 4:30 여기에 링크를 걸어도 될까요?

A 4:30 물론, 페이지 매김일 뿐입니다. 예, "페이지가 매겨진 콘텐츠를 Google에 표시합니다. 오 좋습니다. Barry가 게시했습니다. 시원한.

Q 4:57 안녕하세요 John, 알겠습니다. 새 검색 콘솔에서 링크 탭을 보았습니다. 나는 지난 몇 개월 동안 복제 사이트가 있던 곳에 문제가 있었습니다... 이 복제 사이트가 내 모든 사이트와 상대 링크를 사용하고 좋아요, 모든 뉴스, 링크 만들기를 사용했기 때문에 많은 백링크를 만들었습니다. 그래서 실제로, 여전히 주요 링크가 있는 사이트가 있습니다. 해당 도메인을 거부하더라도 여전히 986,000개의 링크가 있다고 표시됩니다. 두 번째는 69,000입니다. 보시다시피 두 번째 사이트에 비해 사이트의 일반 백링크가 10배입니다. 그래서 나는 그것을 거부했고 아마도 효과가 있었을 것입니다. 그러나 또한 링크 탭에서 앵커 "최고의 해변 몸매"를 보여주는 또 다른 테이블이 있음을 알 수 있습니다. 이것이 질문입니다. 이 표는 백 링크로 인해 변경되었습니다. 이것이 내 검색 순위에 영향을 줄 수 있습니까? 내가 1순위에 있는 그 닻을 찾으면 내 모습이 보인다.

A 7:58 그래서 나는 그것이 문제가 될 것이라고 생각하지 않습니다. 혼란스러운 부분 중 하나는 우리가 거기에 표시하는 링크의 수일 수 있습니다. 이것은 아마도 이것이 웹사이트의 사이트 전체 링크라는 신호일 것입니다. 그래서 링크가 많은 것처럼 느껴지지만 실제로는 하나의 웹사이트에서 가져온 것이므로 실제로 문제가 되지는 않습니다. 또한 해당 링크를 거부하는 경우 해당 링크를 고려하지 않습니다. 따라서 도메인에서 거부하기만 하면 됩니다. 일어나지 않을 일은 링크가 거부 때문에 [GSC에서] 사라지지 않는다는 것입니다. 따라서 링크 도구에서 귀하의 웹사이트에 대한 모든 링크를 표시합니다. 심지어 무시하는 링크도 포함합니다. 따라서 해당 링크를 거부한 경우 GSC에서 사라지지 않습니다. (또한 앵커)

CD로 메모하기(10-20분)

Q 09:30 - [질문 요약] 비디오를 스트리밍하고 주문형 비디오를 호스팅하는 사이트의 경우 SERP에서 더 잘 표시되는 데 도움이 되는 스키마 외에 다른 것이 있습니까? 또한 추천 스니펫을 얻기 위해 동영상에 어떤 종류의 최적화를 수행할 수 있습니까?

A 11:58 - “스트리밍 면 때문에 잘 모르겠지만, 별로 살펴보지 않은 부분인 것 같아요. 그러나 일반적으로 가장 먼저 다시 확인하고 싶은 것은 인덱싱 측면이라고 생각합니다. 예를 들어 실제로 페이지와 콘텐츠를 인덱싱할 수 있는지 여부 - 한편으로는 비디오 콘텐츠, 다른 한편으로는 스트림 - 이 동영상을 검색에 표시할 수 있다는 것은 문제가 되지 않는 것 같습니다... 맞나요? [Q 질문자가 "예"라고 답함] 그래서 기본 기반은 이미 설정되어 있는 것 같아요. 좋은 것 같아요. 콘텐츠를 선택하고 비디오를 색인화할 수 있고, 그게 기반이 되는 것입니다. 일반적으로 구조화된 데이터의 경우 스트림과 녹화된 콘텐츠를 구분하고 싶을 것입니다. 이는 구조화된 데이터와 관련하여 이를 명확히 하는 데 정말 중요한 한 가지입니다. 따라서 비디오를 제출할 때 녹화된 콘텐츠는 언제라도 일반적인 비디오 마크업을 사용할 수 있습니다. 또는 비디오 사이트맵을 사용하여 해당 비디오에 대해 더 자세히 알려줄 수도 있습니다. 예를 들어 동영상 콘텐츠가 특정 국가에서만 제공되는 경우 동영상 사이트맵에서 이에 대해 알릴 수 있습니다. 스트림의 경우 올바른 접근 방식이 무엇인지 잘 모르겠습니다. 비디오, 라이브스트림 콘텐츠에 사용할 수 있는 인덱싱 API도 있다고 생각합니다. 100% 확신할 수는 없지만 다시 확인하는 것이 좋습니다. 그러나 어쨌든 녹화된 콘텐츠를 라이브 스트림 콘텐츠와 구별하고 다르게 취급하고 고유한 방식으로 별도로 마크업되도록 하고 싶습니다. 추천 스니펫과 관련하여 추천 스니펫에 실시간 스트림을 표시하지 않는 것 같습니다. 내가 아는 한 우리가 비디오를 한 상자에 표시하는 비디오 미리보기는 녹화된 콘텐츠에 더 적합하다고 생각합니다. 거기에 스트림을 표시하지 않을 것이라고 생각합니다. 하지만 녹화를 했다면 적격한 것입니다. [Q asker는 질문의 두 번째 부분을 반복하기 위해 다시 끼어듭니다. 추천 스니펫을 위해 비디오를 가져오기 위해 스키마 마크업 외에 다른 것이 있습니까?] . 그 이후에는 특별한 작업을 수행할 필요가 없습니다. 비디오 콘텐츠를 선택하여 비디오 검색 결과에 표시할 수 있다면, 예를 들어 비디오 모드로 가서 검색하면, 비디오 썸네일을 표시할 수 있다면, 이는 우리가 필요한 모든 세부 정보를 가지고 있다는 것을 의미합니다. 비디오 콘텐츠. 중요한 부분은 축소판을 크롤링하고 색인을 생성하여 robots.txt에 의해 차단되지 않는 축소판 이미지를 갖고 링크하는 비디오 파일도 색인을 생성할 수 있다는 것입니다.”

Q 15:41 (이것은 여전히 ​​위와 같은 사람입니다. 다시 말을 바꿔보겠습니다): 추천 스니펫의 일부인 경기 결과를 보여주는 표가 있습니다. 그들은 어디에서 왔니?

A 16:23: “바로 가기는 모르겠고 그냥 일반적인 검색 순위입니다. 이러한 유형의 많은 콘텐츠에 대해 표 형식으로 표시할 수 있다면 HTML 페이지의 표에 그런 종류의 콘텐츠를 갖는 것이 많은 도움이 됩니다.”

Q 17:14: [Barry는 기술적인 SEO 질문이 있습니다.] 따라서 URL이 있고 URL에는 클릭한 위치를 알려주는 매개변수가 있습니다. 추천하지는 않지만 이 웹사이트에 있는 매개변수가 있습니다. URL에 표시되는 "섹션 A" 또는 "섹션 B"에서 할 수 있음을 보여주는 매개변수입니다. 그들은 또한 rel=next/rel=prev 세트의 page=1과 같이 있습니다. URL의 섹션 매개변수와 rel=next/rel=prev도 유지해야 합니까? 아마도 rel=canonical이 더 합리적이라고 생각합니다... canonical과 rel=next/prev를 동시에 사용할 수 있습니다. 맞죠? [John은 "예"라고 말합니다.] ... 따라서 rel=canonical은 섹션 매개변수 없이 기본 URL에 대한 것이고 rel=next/rel=prev는 섹션 매개변수를 제외해야 합니까? [존은 "예"라고 말합니다.]

A 18:08: “언제든지 동일한 콘텐츠로 연결되는 URL이 줄어들도록 단순화할 수 있다면 그것이 제가 취할 접근 방식이라고 생각합니다. [Barry는 자신의 첫 번째 접근 방식은 섹션 매개변수를 제거하는 것이지만 추적 목적으로는 그렇게 할 수 없다고 덧붙였습니다.] 예, 때때로 추적을 위해 이러한 항목이 있으므로 가지고 있는 항목을 처리해야 합니다. . 때로는 일반 쿼리 매개변수 대신 조각으로 이동할 수 있습니다. 이는 일반적으로 인덱싱을 위해 해당 매개변수를 삭제한다는 것을 의미합니다[Barry는 "나는 그것도 제안했지만 그들은 아니오라고 말했으므로 끝"]이라고 말합니다.

Q 19:09 Google에서 신경 일치 업데이트와 정렬된 핵심 업데이트가 없음을 확인했기 때문에 사이트는 이러한 문제와 관련하여 장기적으로 품질과 관련성을 개선하기 위해 노력해야 한다고 말하는 것이 안전합니까? 광범위한 핵심 업데이트?

A 19:24: “업데이트와 상관없이 그렇게 말하는 것이 안전하다고 생각합니다. 그렇죠? 예를 들어, 항상 개선할 가치가 있습니다. 신경 일치 업데이트가 무엇을 의미하는지 잘 모르겠습니다. 누군가가 꺼내서 분리하려고 하는 "기계 학습"[손을 흔드는 것]처럼 들립니다. 우리는 인프라의 많은 부분에서 기계 학습을 사용하므로 특정 항목이 실제로 유용한 것보다 더 인위적인 것처럼 끌어냅니다.

Q 20:04: 3월 12일 Core Algorithm 업데이트로 이전 업데이트에서 크게 하락한 긍정적인 움직임을 보이는 사이트가 많이 있었습니다. 8월에 출시된 제품에 완화가 있었습니까?

A 20:20: “이것이 8월의 업데이트와 어떤 관련이 있는지 모르겠습니다. 그래서 제 말은 일반적으로 우리가 알고리즘 업데이트를 할 때 우리는 하나의 상태로 시도하고 작업하고 새로운 상태를 향해 노력합니다. 때로는 알고리즘이 약간 과도하다고 인식하는 부분을 개선하고 때로는 인식하는 부분을 개선합니다. 알고리즘이 충분하지 않았습니다. 따라서 이러한 종류의 알고리즘 변경은 일반적으로 알고리즘 업데이트만으로 완전히 정상적이라고 생각합니다.”

Q 20:51: Etag 대 if-modified-since, 다음 HTTP 헤더 중 크롤링 예산 최적화에 사용하는 것이 좋으며 그 이유는 무엇입니까?

A21:03: “그래서 나는 이것이 두 가지 별개의 것이라고 생각합니다. if-modified-since는 요청과 함께 보내는 제목이고 Etag는 응답과 함께 보내는 것이므로 if-modified-since가 일종의 날짜 및 Etag는 일종의 IDE 유형 시스템이며 일반적으로 둘 다 작동합니다. 크롤링과 관련하여 이러한 기능을 사용하려고 시도하지만 항상 사용하지는 않으므로 많은 사이트에서 이를 구현하지 않거나 잘못 구현하여 우리는 웹사이트를 크롤링합니다. 약간의 도움이 되지만 대부분의 경우 사이트는 크롤링과 관련하여 일반적으로 해당 수준에 대해 걱정할 필요가 없습니다. 사용자의 경우 이러한 종류의 최적화는 큰 차이를 만들 수 있습니다. 특히 정기적으로 방문하는 사용자는 CSS나 JavaScript 등을 재사용할 수 있습니다.”

Q 22:20: 날짜에 대한 최근 웹마스터 중앙 블로그 게시물, Google은 사용이 일관적이라고 말했습니다. 'hererichy 날짜'(아마도 계층 구조)를 표시하려는 고객이 있습니다. 기사 페이지의 게시 날짜. 개별 부분에서 그것을 보여주고 그레고리력과 구조화된 데이터를 사용하는 것이 괜찮습니까?

A 22:35: “네, 할 수 있습니다. 다른 형식은 문제가 덜하고 인프라 데이터는 Google Rhian 날짜가 있어야 하므로 쉽게 지정할 필요가 있습니다. 오, Pete 601이 무엇입니까, 우리가 지정한 언어 코드가 무엇인지 완전히 확신할 수 없습니다. 거기. 날짜와 시간을 이상적으로 지정하려면 해당 코드를 사용해야 합니다. 그러나 페이지의 시각적 부분 내에서 현지 날짜 형식을 사용하려는 경우 일반적으로 괜찮습니다. 그것은 우리도 이해하고 받아들일 수 있어야 하는 것입니다.”

Q 23:15: 우리는 비즈니스가 영국 전역의 기질 기관과 협력하도록 돕는 새로운 비즈니스입니다. 시작할 때 위치와 직무의 조합에 대한 페이지를 동적으로 생성했으며 오류로 인해 각 조합에 대해 13개의 페이지를 생성했습니다. 우리는 noindex 메타태그를 사용하여 이 모든 것을 제거하려고 하지만 여전히 존재합니다. 이 문제를 해결하려면 어떻게 해야 합니까?

A 23:43: “일반적으로 noindex 메타태그는 여기에서 올바른 접근 방식입니다. 이는 해당 페이지를 다시 크롤링할 때 색인에서 해당 페이지를 삭제한다는 의미입니다. 이것에 딱 맞습니다. 이러한 URL을 더 빨리 제거해야 한다고 생각되면 제거할 수 있는 깨끗한 하위 디렉토리가 있는 경우 URL 제거 도구를 사용하거나 사이트맵 파일을 사용하여 이러한 URL이 최근에 다음으로 변경되었음을 알려주십시오. 마지막으로 변경된 날짜를 새로 지정한 다음 이 날짜를 조금 더 빠르게 크롤링해 보겠습니다. 일반적으로 특히 더 큰 웹사이트인 경우 특히 웹사이트의 일부 모호한 부분처럼 크롤링 및 색인이 생성된 경우 모든 것을 다시 크롤링하는 데 몇 주에서 몇 달이 소요됩니다. 자주 크롤링하는 일정이므로 완전히 중단되는 데 반년 정도 걸릴 수 있습니다. 실제로, 그것은 큰 문제가 되지 않습니다. 왜냐하면 우리는 당신이 집중하고 싶은 URL을 인식할 수 있고 우리는 대부분 그 URL에도 집중할 것이기 때문에 이러한 오래된 URL은 당신이 처리하고 삭제할 수 있을 때까지 잠시 동안 색인을 생성할 것입니다. 하지만 나머지 웹사이트의 인덱싱에는 영향을 미치지 않아야 합니다."

Q 25:04: 브랜드가 아닌 용어로 인해 지역 지식 패널이 실행되는 고객이 몇 명 있습니다. 어떤 신호가 이에 영향을 줄 수 있는지 알고 있습니까?

A 25:13: “모르겠어요. 그래서 그런 종류는 일반적인 지역 비즈니스, Google 마이 비즈니스 결과에 속합니다. 그래서 무엇이 그것을 촉발할지 잘 모르겠습니다. 아마도 웹사이트에 있는 목록과 관련이 있을 것입니다. 하지만 제 말은 당신이 어떻게 추측할지 짐작할 뿐입니다. Google 마이 비즈니스 도움말 포럼으로 이동하여 다른 전문가의 의견을 확인하는 것이 좋습니다."

Q 25:47: 이미지 검색은 웹 검색과 다른가요? 허용되지 않는 Googlebot 이미지를 사용하여 이미지를 잠갔습니다. Googlebot 기본값도 이미지를 크롤링하지 않고 웹 검색에 표시되지 않는다는 의미인가요?

A 25:59: “네, 다릅니다. 나는 당신이 우리가 다른 지점에 대해 다른 지침을 가지고 있다고 언급한 방식을 좋아합니다. Googlebot 이미지를 차단하고 이미지화하면 이미지 검색에 표시되지 않으며 범용 결과가 이미지 Google 이미지 검색에 좋은 것으로 필터링되기 때문에 범용 결과의 일종 내에서 웹 검색에도 사용하지 않습니다. 결과. 따라서 해당 이미지가 차단되면 기본적으로 해당 이미지를 사용하지 않습니다. 정상적인 웹 결과에는 문제가 되지 않으므로 웹 페이지가 있고 웹 검색을 위해 색인을 생성할 때 웹 검색에 사용할 수 있는 모든 이미지가 있어야 하는 경우가 아닙니다. 그 주변에 이미지가 있지만 실제로는 이러한 이미지를 크롤링할 수 없으므로 이미지 검색에 표시할 수 없으며 일반 웹에서 사용할 수 없는 이미지의 긍정적 또는 부정적인 부작용이 없습니다. 검색. 그래서 일반적인 종류의 텍스트 유형 검색을 위해."

Q 27:05: 우리는 우리가 판매하지 않거나 의약품과 같은 콘텐츠가 없는 관련 없는 성분에 대한 순위를 매기기 시작했습니다. 우리는 해킹당하지 않았으며 해당 용어가 포함된 앵커 텍스트가 수신되지 않았습니다. 이것이 문제이며, 그렇다면 무엇을 확인할 수 있습니까?

A 27:22: “그래서 내 의심은 당신이 결국 해킹을 당했을 수도 있다는 것입니다. 그래서 나는 당신의 웹사이트를 알지 못하지만 일반적으로 이것은 웹사이트가 제약 용어에 대한 순위를 매기기 시작하는 무작위로 일어나는 것이 아니라 해킹을 당했을 수도 있다는 것입니다. 자신에게 완전히 명확하지 않은 방식으로. 그래서 당신이 할 수 있는 일은 Search Console로 이동하여 검색 분석 섹션에서 이들에 대한 순위가 매겨진 페이지를 확인하고 URL 검사 도구, 거기에 있는 실시간 가져오기 옵션을 사용하여 Googlebot이 볼 때 이 페이지가 어떻게 보이는지 확인하는 것입니다. 그 페이지와 때때로 우리는 시각적인 부분에서 때때로 HTML에서 볼 수 있습니다. 실제로 누군가가 그 페이지에 많은 제약 링크를 추가한 것을 볼 수 있습니다. 이것은 아마도 이 페이지에서 해킹된 것이 있다는 일종의 신호입니다. 때로는 웹 사이트가 과거에 해킹당하고 해킹을 정리할 때 약간 남아 있는 것이기도 합니다. 그래서 그것들은 내가 거기에서 볼 방향의 종류입니다. 나는 정상적인 웹사이트가 아무 이유 없이 갑자기 약학적 용어로 순위가 매겨진다고 가정하지 않을 것입니다. 그래서 보통 그 뒤에 무언가가 있습니다.”

요약: Search Console의 Search Analytics 섹션 아래에서 어떤 페이지의 순위를 확인할 수 있으며 URL 검사 도구를 사용하면 HTML을 확인할 수 있고 추가된 링크가 있는지 확인할 수 있습니다. 해킹. 정리한 후에도 남아 있을 수 있습니다.

Q 28:41: 이 이전 키워드 플래너에 대해 말하면 -- [John:]을 클릭하면 Adwords 도구입니다. [질문]: 새 인프라에서 묻겠습니다. 이 옵션은 사용할 수 없습니다. 이것에 대한 대안이 있습니까?

A 29:16: “모르겠습니다. 그것이 Adwords 키워드 플래너 도구이므로 Adwords 측에서 계획이 무엇인지 모릅니다. Search Console과 관련된 것이 아닙니다. 정말 순전히 광고 팀에서 나온 것입니다.”

Q 30:45 스팸성 백링크 자체를 거부하는 것 외에 백링크를 거부할 때 참조되는 다른 모든 URL을 거부해야 합니까?

A 30:55 아니요. 문제가 있는 링크인 경우 해당 링크는 고려되지 않습니다. 전체 웹사이트, 다른 사람의 웹사이트에서 귀하의 웹사이트로 이동하는 모든 것이 문제라고 생각되면 전체 도메인을 거부합니다. 그것이 당신의 기지를 덮는 가장 쉬운 방법이지만 잘못된 링크가 있는 해당 페이지를 가리키는 다른 모든 링크로 체인을 다시 따라갈 필요는 없습니다. 거부해야 하는 링크는 단 하나뿐인 경우가 많습니다. 그리고 종종 실제로 거부할 필요가 없습니다. 직접 조치를 취한 경우가 아니면 링크를 보고 다음 주에 Google에서 직접 조치를 취하지 않을 것입니다. 그러면 일반적으로 거부 도구를 전혀 사용할 필요가 없습니다.

참고 사항: Google은 스팸 링크를 구문 분석하고 찾아내고 무시하는 데 정말 능숙합니다. 가장 중요한 것은 SEO 목적으로 생성된 부자연스러운 링크가 있는지 여부입니다.

Q 31:45 Google은 웹사이트 분석 웹사이트 또는 사용자 프로필 또는 사용자 생성 콘텐츠, 자동 생성 콘텐츠 사이트의 백링크를 어떻게 처리합니까?

A 32:00 대부분의 경우 우리는 그것들을 무시합니다. 그것들은 모든 것에 연결되어 있고 인식하기 쉽기 때문에 본질적으로 무시하는 것입니다.

Q 32:10 우리 사업은 소프트웨어 개발 및 DevOps 서비스에 관한 것이며, 우리가 제공하는 서비스에 대한 별도의 페이지와 블로그 페이지가 있습니다. 블로그 기사에는 좋은 프로그래머 팀을 고용하는 방법부터 미루는 습관을 극복하는 방법과 비즈니스에서 여성의 역할에 이르기까지 다양한 주제가 있습니다. 그런 광범위한 주제가 우리 웹사이트의 전체 주제를 희석시킬 수 있고 결과적으로 우리 서비스를 판매하는 거래 키워드의 순위를 매기는 것이 어려울 수 있다고 걱정했습니다. 그게 문제야?

A 32:50 아니요, 그게 문제가 될 것 같지는 않습니다. 어렴풋이 이것들이 모두 관련되어 있다고 생각합니다. 내가 더 집중하고 싶은 것은 사람들이 해당 페이지로 이동하고 해당 페이지로 이동하는 사용자로부터 전혀 가치가 없다면 비즈니스 관점에서 적절하지 않을 수 있다는 것입니다.

Q 33:45 리치 스니펫에 대한 질문: 스위스에 기반을 둔 우리 회사와 제안의 경우 독일 웹사이트에서 가격이 유로로 표시되는 경우가 많습니다. 실제로 유용하지 않은 내 관점에서 구조화된 데이터를 사용하여 다른 웹사이트 대신 표시할 수 있습니까?

A 34:15 스위스에 사는 사람으로서 나는 때때로 독일의 많은 사이트를 보는 것이 그다지 유용하지 않다는 데 동의합니다. 그러나 본질적으로 좋은 로컬 콘텐츠가 없고 로컬 관점에서 무언가를 찾는 데 사용한다고 말할 수 없다면 이 페이지가 검색 결과에 표시되어서는 안 된다고 말하기 어렵습니다. . 따라서 예를 들어 사용이 실제로 지역적인 것을 찾고 있다는 것을 인식할 수 있고 지역적인 콘텐츠가 있는 경우 이를 보여주려고 노력할 것입니다. 그러나 말할 수 없고 특정 주제에 대한 정보를 찾고 있다면 독일, 스위스 또는 다른 국가에 대한 것인지 여부에 관계없이 해당 주제에 대한 정보를 표시해야 합니다. 따라서 구조화된 데이터는 명확하게 지정할 수 없습니다. 할 수 있는 일은 여러 언어 및 국가 버전이 있는 경우 Hreflang 마크업을 사용하는 것입니다. 사용하도록 지정할 수 있으며 검색 콘솔에 있는 지역 타겟팅을 사용하여 웹사이트가 독일을 구체적으로 타겟팅하거나 더 구체적으로 타겟팅하고 있음을 알릴 수도 있습니다. 스위스와 우리는 사용자가 지역적인 것을 찾고 있다는 것을 인지할 때 이를 고려할 것입니다.

Q 35:50 전자담배 회사에서 사용하고 있는 링크 네트워크와 사악한 링크 구축 계획을 볼 수 있습니다. 제안된 대로 보고했지만 우리가 할 수 있는 다른 방법이 있습니까?

A 36:00 검색 콘솔에서 스팸 신고 양식으로 신고하는 것이 좋습니다. 이는 수동 웹 스팸 관점에서 검토해야 하는 이러한 페이지를 더 잘 이해하는 데 도움이 됩니다. 해당 페이지를 완전히 삭제한다는 보장은 없습니다. 따라서 경쟁 영역과 관련하여 우리는 웹사이트가 어떤 것은 정말 잘하고 어떤 것은 정말 나쁘게 하는 경우를 자주 보게 되며 전반적인 상황을 파악하고 이를 전체 순위에 사용하려고 합니다. 예를 들어 한 사이트에서 키워드 스터핑을 정말 끔찍한 방식으로 사용하지만 비즈니스는 실제로 정말 환상적이고 사람들은 그곳에 가는 것을 정말 좋아하고 검색에서 찾는 것을 좋아하고 해당 사이트에 대한 정말 좋은 신호가 많이 있으므로 우리는 키워드 스터핑을 하고 있음을 인지하더라도 여전히 1위에 표시될 수 있습니다. 많은 경우 우리 알고리즘이 이러한 종류의 '나쁜 상태'를 인식하고 무시하려고 합니다. 그래서 우리는 특히 링크, 키워드 스터핑, 기타 기술과 관련하여 링크 또는 키워드 스터핑으로 정말 이상한 일을 하고 있다는 것을 인식할 수 있는 경우 이를 무시하고 집중할 수 있습니다. 순위에 사용할 수 있는 합리적인 신호가 있는 좋은 부분에서. 그래서 여기에서 일어날 수 있는 일은 이 사이트나 구체적으로 보고된 내용을 보지 않았지만 일어날 수 있는 일은 우리가 대부분 무시하는 정말 끔찍한 링크 구축 작업을 하고 있고 그들은 상당히 잘하고 있다는 것입니다. 그들이 꽤 잘하고 있는 것을 기반으로 우리는 검색 결과에서 적절하게 순위를 매기려고 노력하고 있습니다. 이것을 보고 내가 모든 것을 제대로 하고 있고 왜 이 사람들이 나보다 높은 순위에 있는 반면에 우리는 더 큰 그림을 보고 관련성을 조금 더 잘 이해하려고 노력한다고 말할 때 일종의 좌절감을 줍니다. 때로는 웹사이트에서 정말 끔찍한 일을 하고 Google의 알고리즘이 이를 보고 '오, 그건 실수 같군요. 그냥 무시하고 문제에 집중할 수 있습니다. good parts of the website and not remove that site completely from search because they found some bad advice online'.

Q 38:56 - We help companies find recruitment agencies to work with and broadly what we have on our site is it dynamically creates pages for combinations of jobs and locations. So you might type in a programmer in Oxford and it'll show you a page saying program in Oxford. And so I had these dynamic pages created and I put them into the search engine and when I first did this I saw a real uptick in volume coming from search because previously I've been relying on paid clicks. Then we made this mistake where we had every single link had 13 different pages and I've tried to get them out. What's happened as I seem like you know my impressions just go down over time to zero and literally the only thing I'm coming up for is my brand name. I went to the old version a search console and said can you ignore these web links for me and it still hasn't made any difference. I still seem to be having nothing coming in and I'm kind of very nervous about what you said, saying it could take months for this to come through, because as a start-up I know it's not Google's business but it's very hard for me to get traffic in. Is there anything could be doing?

The second part of this question, the way I do my pages is I have in my database I have a little bit written about a role and a little bit written about a town and I combine them together on a page to say, here are programmers in Oxford. So a programmer or job spec will say these things and you should pay, this amount of money for a programmer, and about employment in Oxford. But of course, the piece about Oxford is repeated on every single job role and then the piece about programmers is repeated on every single location. Does that mean those pages will get deranked?

A 40:52- I would be kind of worried about the setup that you have there. So that sounds a lot like you're just taking a lot of chunks from the database and just automatically generating combinations of those pages and it feels to me that a lot of these variations could be very thin, very low quality and that maybe you don't have a lot of content for those variations and you quickly run into the situation where you create thousands of pages with all these combinations and the actual amount of content there is very minimal. So what could happen on Google side is, we go off and crawl and index all of these pages and we think oh like there's so much stuff here we can kind of pick up all of this stuff but in a second step when we look at the details were like, actually there's not a lot of really useful information here and especially if you're also taking the jobs maybe from existing feeds from other websites. Then what we see is essentially just a mix of like some some city information, some role information, job listings which we've already captured somewhere else and we kind of look at that overall and say like, what's the additional value of having your page indexed in addition to the things we already have indexed about all of these combinations and that's I think the tricky part there and that's kind of where you need to jump in and say, actually the might the way I have things combined are completely different from everything else. There's a lot of value that I add through these pages that when people go to these pages they clearly see that this is not just like a combination of existing feeds but actually there's something really fantastic here that nobody else has captured so far.

Barry chimes in about a similar story.

I could imagine for ads maybe that's that's slightly different than if you were if you have ads landing pages but especially from an indexing from a quality point of view that's something where I would expect that you would have a really tough time unless you're really providing a lot of like really strong value in addition just to those listings there.

I think what you really want to do especially for search, is make sure that you have a significant amount of value there that's much more than what other people have for that kind of content. So in particular one approach I usually take is like, if you bring this problem to me and you say that your site is not ranking well and I take that problem to the search ranking engineers and they say, well actually we have this combination already index five times why should we add this other variation and I don't have a good reason to tell them like, instead of these five you should take this new one. Then that's something that's that's really hard for me to justify and that means that in the end you'll be competing against a lot of kind of established players in that scene and you're kind of a new player in that scene and you don't have significant unique value that you're adding to that. So it's really from our algorithmic point of view it's like why should we spend time on this website that's not significantly changing the web for our users.

Q 49:15 - This is relating to structure kind of website this is a magazine you know they have is in a Drupal site in its I'm trying to figure out the best structure since there is articles and every category and those articles could be repeated through categories but there's also landing pages for each category and subcategory so I'm kind of trying to avoid such a big mess and try and condense that do you have any advice for that

A 49:52 -I guess in general what you want to make sure is that the pages that you do have index for search that they're able to stand on their own. So if you have all of these different combinations of like categories and landing pages and things like that. Then I try to figure out which of those variations you think you want to keep first switch and no index the other ones.