Robots.txt 부활절 달걀 – 로봇 지침을 인간에게 재미있게 만드십시오!
게시 됨: 2021-10-28부활절 달걀은 일반적으로 찾을 위치에 대한 명확한 지침 없이 알려지지 않은 장소에서 찾는 데 시간을 보낸 후 사냥 중에 발견한 항목과 관련이 있습니다. 검색에는 시간과 노력이 필요하기 때문에 궁극적으로 찾는 것이 보람이 있습니다.
이 모든 것은 기술 제품에서 발견되는 부활절 달걀에도 해당됩니다.
오늘은 robots.txt 파일에 있는 부활절 달걀을 살펴보려고 합니다. 부활절 달걀과 robots.txt 파일의 개념과 개발자가 이 파일에 부활절 달걀을 포함할 수 있는 이유를 설명하겠습니다.
나는 또한 robots.txt 파일의 이스터 에그가 얼마나 많은 형태를 취할 수 있는지 결정하기 위해 이스터 에그 찾기에 나섰다. 그것이 밝혀진 대로 – 많은!
계속 읽고 이 기사의 끝까지 가십시오. 내가 당신을 위해 할 일이 있을 것입니다!
기술 분야의 부활절 달걀은 무엇입니까?
기술 분야의 이스터 에그는 문서화되지 않은 기능 또는 제품이 작동하는 데 필요하지 않은 소프트웨어 조각으로 이해됩니다. 이러한 기능은 많은 지침 없이 검색해야 하는 사용자에게 공개적으로 공개되거나 공유되지 않습니다.
부활절 달걀은 일반적으로 비디오 게임, 프로그램, 앱, 소프트웨어 및 웹사이트의 일부에서 발견됩니다.
다음과 같은 다양한 형태로 제공됩니다.
- 추가 기능이나 레벨을 발견하는 게임의 치트 코드,
- 숨겨진 페이지 또는 기타 웹 문서에 나타나는 문화적 참조,
- 텍스트 문서 작성 및 편집과 같은 다른 목적으로 만들어진 소프트웨어에 있는 게임 또는 앱,
- 개발자가 남긴 메시지(예: 제품 작성자에게 크레딧을 표시하는 메시지).
목록은 계속되며 부활절 달걀이 될 수 있는 것에는 제한이 없습니다.
하지만 더 많은 것이 있습니다.
저에게 이스터 에그는 풍부한 논리와 구체적인 규칙이 특징인 기계 환경에서 인간의 손길입니다.
부활절 달걀은 이러한 엄격한 규칙을 위반합니다. 이는 제작자가 기술 제품에 인간의 얼굴을 가진 고유한 요소를 추가하는 방법입니다. 이스터 에그를 포함하면 주어진 기술 제품을 사용하는 전체 경험을 더 재미있게 만들고 제품에 따라 열렬한 팬을 위한 대접이 될 수 있습니다.
사이트의 robots.txt 파일에서 찾을 수 있는 부활절 달걀로 넘어가 보겠습니다.
부활절 달걀 및 robots.txt 파일
robots.txt 파일에서 부활절 달걀을 찾는 것은 다른 많은 경우보다 덜 복잡합니다. 사이트의 robots.txt에 액세스하기만 하면 됩니다.
robots.txt 파일에는 수많은 부활절 달걀의 예가 있습니다. 이 파일은 로봇이 읽고 따라야 하는 파일입니다. 따라서 부활절 달걀은 인간만이 이해할 수 있는 방식으로 추가되어야 합니다.
robots.txt 파일이 무엇인지 그리고 이스터 에그를 추가해도 로봇이 파일을 읽는 방식에 영향을 미치지 않는지 확인하겠습니다.
robots.txt 파일이란 무엇입니까?
robots.txt 파일 은 도메인 루트에 있으며 검색 엔진 크롤러에 대한 일련의 지시문을 포함하여 웹사이트에서 페이지를 크롤링하는 방법을 알려줍니다.
각 지시문은 사이트의 파일 경로에 대한 특정 크롤러의 액세스를 차단하거나 허용합니다. robots.txt에 달리 지정하지 않는 한 로봇은 웹사이트의 모든 파일을 크롤링할 수 있습니다.
robots.txt 파일의 지시문은 크롤링 예산을 최대화하는 방법이므로 Googlebot이 사이트의 관련 없는 페이지에 예산을 낭비하지 않습니다.
부활절 달걀을 추가하면 robots.txt 파일이 손상될 수 있습니까?
Robots.txt 파일은 robots.txt 규칙 추가에 대한 Google 가이드라인에서 자세히 읽을 수 있는 특정 형식을 따릅니다 .
검색 엔진은 해시태그 뒤의 robots.txt 파일에 나타나는 기호나 명령을 무시하므로 해시태그 앞에 부활절 달걀을 포함해도 로봇이 이러한 파일을 이해하는 방식에는 영향을 미치지 않습니다.
이스터 에그는 또한 사용자가 쉽게 액세스할 수 없는 문서나 위치에 배치되는 경향이 있으며, 이는 robots.txt 파일의 경우에도 마찬가지입니다. 일반적으로 다른 페이지에서 연결되지 않으며 사용자는 웹사이트의 버튼을 클릭하는 것만으로는 해당 페이지로 이동할 수 없습니다.
robots.txt 파일에 부활절 달걀을 추가해야 하는 이유는 무엇입니까?
사람만 읽을 수 있는 robots.txt 파일에 텍스트를 추가할 수 있으므로 이 기회를 사용하여 마케팅 노력을 보완할 독점 콘텐츠를 만드는 것이 어떻습니까?
사용자에게 엔터테인먼트를 제공하는 것 외에도 여러 가지 이유로 robots.txt 파일에 부활절 달걀을 추가할 수 있습니다.
예를 들어 robots.txt의 콘텐츠는 다음을 수행할 수도 있습니다.
- 브랜드 인지도 높이기
- 고용주 브랜딩을 보여주세요
이것은 여러 가지 방법으로 달성할 수 있습니다. 다음을 수행할 수 있습니다.
- 로고나 슬로건을 포함하는 등 고유한 브랜딩을 구현합니다.
- 귀하가 제공하는 서비스 또는 제품 또는 귀하의 회사를 작업 환경으로 참조하십시오.
- 방문자가 귀하의 채용 공고에 지원하도록 권장하십시오. 이렇게 하면 귀하의 robots.txt를 방문하는 선택된 그룹의 사람들만 대상으로 삼을 수 있습니다. 특히 괴짜를 개발자 또는 SEO 팀에 초대하기 위해 할 수 있습니다!
- 관련성 있고 독창적인 콘텐츠를 만듭니다. 예를 들어 로봇을 다루거나 로봇에 대한 유머러스한 참조, 검색 엔진 또는 대중 문화와 같은 기타 주제를 포함하는 등 robots.txt 파일의 목적과 주제적으로 일치할 수 있습니다. 이와 같이 가벼운 내용을 포함하면 브랜드가 더 친근하고 사용자 중심적으로 보일 수 있습니다.
브랜드를 가장 잘 보여줄 수 있는 접근 방식을 선택하고 사용자가 브랜드를 인식하는 방식에 고유한 자산이 됩니다.
robots.txt에 있는 부활절 달걀의 예
robots.txt 파일에서 부활절 달걀의 예를 살펴보고 파일에서 찾을 수 있는 다양한 유형의 메시지를 살펴보겠습니다.
구글의 킬러로봇.txt
Google의 killer-robots.txt 파일은 웹마스터가 사용할 수 있는 robots.txt 지침 의 20주년 을 기념하여 만든 기억에 남을 이스터 에그였습니다 . 그 이후로 제거되었지만 robots.txt 파일에서 가장 유명한 부활절 달걀의 예 중 하나로 남아 있습니다.
다음은 Google에 포함된 텍스트입니다.
사용자 에이전트: T-1000
사용자 에이전트: T-800
허용하지 않음: //LarryPage
허용하지 않음: //+SergeyBrin
T-800은 유명한 영화에서 아놀드 슈왈제네거가 연기한 터미네이터입니다. T-1000은 영화 터미네이터 2 의 로봇 암살자입니다 . 이 파일에 포함된 지시문은 T-800 및 T-1000이 Google 설립자 Larry Page와 Sergey Brin을 죽이는 것을 방지합니다.

나이키
Nike는 유머러스한 브랜드 슬로건을 포함하여 robots.txt 파일에 브랜드를 통합합니다. 검색 엔진에 대한 참조와 결합됩니다.

Nike는 로고를 통합하여 이러한 브랜드 기능을 더욱 발전시킵니다.

클라우드플레어
Cloudflare는 로봇을 개인적으로 처리합니다. 다음과 같이 시작됩니다.

그리고 로봇이 요청에 응답하고 따르기로 동의하는 것으로 끝납니다.

유튜브
Youtube는 로봇을 언급하고 로봇이 지배적인 디스토피아적 미래를 언급합니다.

유리문
Glassdoor는 직원들이 회사를 검토하고, 제공하는 급여를 보고, 플랫폼에서 일자리를 검색하는 등의 작업을 수행할 수 있는 웹 사이트입니다. 그들의 robots.txt 파일은 작업 테마를 따릅니다 . 파일의 지시문은 robots.txt 파일을 탐색하는 SEO 괴짜가 자신의 직책 중 하나에 지원하도록 권장합니다.

엣시
Etsy의 메시지는 "선함을 위해!"라는 뜻의 이탈리아어로 보입니다. 로봇과 같은 모양의 간단한 이미지가 포함되어 있습니다. 물론 다음과 같습니다.

개가 깽깽 우는 소리
Yelp는 유명한 SF 작가 아이작 아시모프(Isaac Asimov)와 그의 로봇 공학의 세 가지 법칙(Three Laws of Robotics )을 인용합니다 . 아시모프는 1942년 단편 소설에서 이 법칙을 소개했고 나중에 그의 소설의 기초로 사용했습니다.
법은 인간과 로봇을 위한 윤리적 시스템이며 robots.txt 파일은 바로 다음과 같이 볼 수 있습니다. 인간과 로봇이 상호 작용하고 다음과 같은 이점을 누릴 수 있습니다.

트립어드바이저
Glassdoor와 마찬가지로 Tripadvisor는 사람들의 호기심을 중요하게 여기며 이스터 에그 헌터에게 SEO 팀의 일원이 되고 지원하도록 요청합니다.

위키피디아
Wikipedia의 robots.txt 파일에는 여러 메시지가 포함되어 있습니다. 다음은 그 중 일부일 뿐입니다.



이 지시문은 로봇의 행동에 대해 설명합니다. 인간만 읽을 수 있기 때문에 로봇에 대해 농담을 하는 것입니다. 그것은 우리가 기대하는 진지하고 사실 확인된 기사와 대조되는 Wikipedia의 재미있고 가벼운 면을 보여줍니다.
메리엄 웹스터
Merriam Webster는 파일에 액세스할 수 있는 모든 사람에게 "주의해서 편집"할 것을 상기시킵니다.

robots.txt 파일에 포함된 모든 지시문은 신중하게 계획하고 파일에 배치해야 함을 다시 한 번 상기시킵니다. 결국 실수로 인해 로봇이 사이트를 올바르게 크롤링하지 못할 수 있습니다.
비명 개구리
Screaming Frog에는 회사 이름과 관련된 유머러스한 지시가 포함되어 있습니다.

하지만 단순히 재미있는 참조가 되는 것 이상의 의미가 있습니다. 이러한 지시문을 포함하면 브랜드 인지도를 구축하는 데 도움이 됩니다. "개구리 팀 보호"를 언급하는 것은 고용주 브랜딩의 예로 볼 수 있습니다.
또한 robots.txt 파일에서 회사의 SEO 팀에 합류하기 위한 초대장을 찾을 수 있습니다.

검색 엔진 랜드
Search Engine Land는 robots.txt 파일을 방문하는 로봇이 아닌 사람이 있을 수 있음을 인식하여 로봇은 읽을 수 없기 때문에 다음 메시지를 읽을 수 있는 사람들을 대상으로 합니다. Battlestar Galactica에 대한 언급도 있습니다.

휴먼.txt
인터넷은 로봇이 아니라 인간에 관한 것이어야 합니다.
로봇용 robots.txt 파일이 있다면 인간용도 있어야 합니다.
이것은 robots.txt 파일에 대한 반대 이니셔티브로 생성된 human.txt 뒤에 있는 생각입니다. 공식 웹사이트에서 읽은 것처럼:
“웹사이트 뒤에 있는 사람들을 알기 위한 이니셔티브입니다. 웹사이트 구축에 기여한 다양한 사람들에 대한 정보가 포함된 TXT 파일입니다.”
.txt 파일은 코드를 방해하지 않으며 사이트의 저작권을 쉽게 증명할 수 있는 방법입니다.
다음은 Google의 human.txt 파일에 포함된 텍스트입니다.
“Google은 전 세계 여러 사이트의 엔지니어, 디자이너, 연구원, 로봇 및 기타 사람들로 구성된 대규모 팀에 의해 구축되었습니다. 지속적으로 업데이트되고 우리가 흔들 수 있는 것보다 더 많은 도구와 기술로 구축되었습니다. 우리를 돕고 싶다면 Careers.google.com을 참조하세요.”
다른 웹사이트에서도 이를 사용하고 종종 더 창의적 입니다. Netflix 와 Medium의 human.txt 파일을 살펴보세요.
다음 단계
robots.txt 파일에서 발견된 부활절 달걀의 예를 보았으니 이제 사용자를 위해 부활절 달걀을 남겨두고 싶은 영감을 얻었습니까?
우리는 했다!
