Robots.txt: SEO 모범 사례

게시 됨: 2022-04-28

온라인 웹사이트 트래픽을 극대화하는 것과 관련하여 우리 모두는 검색 순위와 개선 방법을 확인하여 그렇게 하기를 원합니다. 물론 게임의 이름은 검색엔진 최적화이고 게임의 룰은 뭐 항상 체크하기가 쉽지는 않습니다.

특정 사이트에 이점과 경쟁 우위를 제공하기 위해 수행할 수 있는 간단한 작업, 콘텐츠 및 키워드가 많이 있습니다. 그러나 그 모든 것의 기초는 어떻습니까? 웹사이트의 robots.txt 파일에서 찾을 수 있습니다.

검색 엔진에는 기본적으로 웹 사이트를 방문하고 사용 가능한 콘텐츠를 살펴보고 검색자에게 사용 가능한 최상의 정보 형식을 제공하도록 구성하는 웹 크롤러가 있습니다. 사이트의 콘텐츠를 적절하게 크롤링하고 처리하려면 검색 엔진 로봇이 웹사이트의 robots.txt 페이지 형식의 지침이 필요합니다.

robots.txt 파일을 만들고 이를 효과적으로 사용하여 검색 엔진용으로 웹페이지를 최적화하는 것은 혼란스러운 과정일 수 있습니다. 웹사이트가 검색 엔진 로봇에 얼마나 액세스할 수 있는지 여부를 결정하거나 중단할 수 있다는 점을 염두에 두어야 할 세부 사항이 있습니다.

적절한 형식과 구문을 따르는 것부터 robots.txt 파일을 올바른 사이트 위치에 배치하는 것까지, 몇 가지 기본 지침과 Robots txt 모범 사례를 따라 웹사이트 트래픽을 관리하는 것이 중요합니다.

Robots.txt 파일: 파일의 정의와 원하는 이유

robots.txt 파일이 무엇이며 SEO 범위에서 어떻게 작동하는지 좀 더 자세히 살펴보겠습니다. 다음은 Robots txt 모범 사례에 대해 알아야 할 사항입니다.

robots.txt 파일은 로봇 제외 표준 또는 RES에서 생성된 일반 텍스트 파일입니다. RES는 웹 크롤러가 읽을 수 있는 언어에 대한 프로토콜입니다. 다양한 검색 엔진의 여러 웹 크롤러가 있으므로 액세스 대상에 대한 잘못된 해석을 피하는 것이 중요합니다. RES를 사용하면 어떤 웹 크롤러가 무엇을 차단할지 구체적으로 지정할 수 있으며 필요한 경우 전체 사이트 또는 일부만 보호할 수 있는 매우 유연합니다.

대부분의 웹 크롤러는 robots.txt 파일을 스캔하여 웹사이트에서 요청할 수 있는 콘텐츠를 결정합니다. 악의적인 의도를 가진 웹 크롤러는 지침을 무시하거나 스팸을 위한 사이트 약점이나 연락처 정보를 찾기 위한 지침으로 사용할 수도 있습니다. robots.txt 파일을 찾을 수 없는 경우 크롤러는 모든 URL 또는 미디어 파일에 대한 모든 요청에 ​​대해 사이트가 열려 있는 것으로 간주합니다.

사이트의 robots.txt 파일도 항상 누구나 볼 수 있습니다. 즉, 개인 정보나 손상될 수 있는 정보를 숨기는 데 사용해서는 안 됩니다. noindex 지시문과 같이 검색 결과에서 전체 정보 페이지를 숨기는 대체 방법을 살펴보십시오.

귀하의 사이트에 robots.txt 파일이 첨부되어 있지 않다면 어떤 일이 일어날지 생각해 보십시오. 사이트 또는 서버 속도를 저하시키는 타사 크롤러로부터 여러 요청을 받을 수 있습니다. 서버에 과부하가 걸리거나 서버 오류가 발생하면 청중에게 접근성이 저하될 뿐입니다.

일부 타사 크롤러에는 여전히 차단을 무시할 수 있는 옵션이 있지만 대부분의 다른 원치 않는 조회를 차단하고 콘텐츠를 검색하지 못하도록 robots.txt 파일을 만드는 것이 좋습니다.

Robots.txt 파일 만들기

robots.txt 파일 생성을 시작하려면 워드 프로세서가 아닌 간단한 텍스트 편집기를 사용하여 파일을 만들고 웹사이트의 기본 루트 디렉토리에 업로드할 수 있습니다. 웹 사이트 이름의 루트에 있는지 확인하십시오. 모든 웹 크롤러는 기본 URL 바로 다음에 "/robots.txt"를 찾고 있습니다.

일련의 규칙이 robots.txt 파일을 구성합니다. 각 규칙에 포함되어야 하는 첫 번째 매개변수는 지시하는 웹 크롤러의 이름인 사용자 에이전트입니다.

예를 들어 Googlebot이 있지만 웹 크롤러가 너무 많기 때문에 특정 영역에서 차단하거나 허용할 대상을 지정하는 것이 중요합니다. 사용자 에이전트 이름 대신 별표(*)는 모든 봇이 규칙을 따르기로 선택한 경우 해당 규칙을 따라야 함을 의미합니다.

두 번째 매개변수는 키워드 허용 또는 허용 안함 중 하나입니다. 크롤러 액세스를 허용하거나 허용하지 않으려는 폴더 이름 또는 파일 경로 이름이 뒤에 와야 합니다.

이렇게 하면 검색 결과에 대해 인덱싱되지 않도록 유지하려는 웹사이트 부분을 지정할 수 있고 전체 세트에서 조회수가 발생하지 않도록 할 수 있습니다. 모든 파일이 SEO 탐색에 도움이 되지 않는 경우 이를 명확히 하는 것이 특히 유용합니다.

robots.txt 파일의 또 다른 일반적인 핵심 부분은 XML 사이트맵에 대한 링크를 추가하는 것입니다. 이를 첨부하면 웹 크롤러가 귀하의 콘텐츠를 쉽게 평가하고 귀하가 허용하는 모든 콘텐츠를 색인화하여 보다 가치 있는 정보, 비디오 및 이미지가 표시될 수 있습니다.

이는 사이트에 사용할 수 있는 robots.txt 파일을 설정하는 기본 사항일 뿐입니다. 이를 바탕으로 웹 크롤러가 탐색하여 웹 사이트 트래픽을 증가시키는 중요한 검색 결과를 생성할 수 있는 규칙을 만들 수 있어야 합니다. 이것은 또한 어떤 정보나 미디어가 청중이 귀하가 제공하는 콘텐츠를 더 많이 보도록 유도할 것인지 선택하기 위해 귀하의 웹사이트를 분석하는 데 노력을 기울일 것입니다.

Robots.txt 파일에 대한 모범 사례

robots.txt 파일에 대한 이 개요는 자신의 웹사이트 파일을 만드는 데 도움이 되며 아래 모범 사례를 따라 웹사이트를 검색 엔진 크롤러에 완전히 최적화할 수 있습니다. 차단된 URL이 다른 사이트를 통해 액세스할 수 없는지 확인하고, 기호를 사용하여 패턴이 존재할 때 단순화하고, 파일을 적절하게 구성하고, robots.txt 파일을 테스트하여 원하는 작업을 수행하는지 확인합니다.

Robots.txt 파일 테스트

웹사이트의 전체 부분이 검색 결과에 표시되는 것을 차단하지 않도록 robots.txt 파일을 테스트하는 것이 중요합니다. 테스트 도구를 통해 이 작업을 수행하면 특정 웹 검색 로봇에 대해 특정 URL이 차단되었는지 알 수 있습니다.

이것은 제한하려는 여러 측면이 있는 경우 특히 유용할 수 있습니다. 웹 페이지, 미디어 파일 또는 리소스 파일을 SEO 게임에서 완전히 빼내기 위해 '허용' 또는 '비허용'이라는 단어를 간단히 전환하는 것을 원하지 않을 것입니다.

패턴 매칭

URL의 변형을 고려하기 위해 robots.txt 파일의 패턴 일치를 활용하십시오. 패턴 일치에는 이전에 언급한 대로 모든 크롤러를 나타내는 별표가 포함될 수 있습니다. 이것은 사용자 에이전트 라인에서 파일을 읽고 준수하도록 선택하는 모든 검색 엔진 로봇의 특정 페이지를 허용하지 않는 데 사용할 수 있습니다.

또 다른 패턴 일치 기호는 달러 기호($)입니다. 이 기호는 특정 문자열 끝에 사용하여 크롤러가 해당 확장명 또는 파일 유형으로 끝나는 URL에 액세스하는 것을 방지할 수 있습니다.

배치, 구문 및 형식

또한 위치, 구문 및 형식에 주의하는 것은 귀하에게 적합한 robots.txt 페이지에 필수적입니다. 다시 말하지만, 각 사이트 URL에는 robots.txt 파일이 하나만 있을 수 있으므로 파일은 웹사이트의 루트가 아니라 하위 페이지 URL이나 다른 도메인 아래에 위치해야 합니다. 웹 크롤러는 해당 루트 배치만 조회하므로 다른 위치에 배치된 동일한 파일은 관련이 없는 것으로 렌더링됩니다.

robots.txt 파일 내의 지시문은 어떤 사용자 에이전트 또는 크롤러가 처리되고 있는지에 따라 그룹화되어야 합니다. 이러한 그룹은 위에서 아래로 스캔됩니다. 즉, 웹 크롤러는 일치하는 첫 번째 특정 규칙 집합을 따릅니다. 사양을 정의하고 허용하거나 차단하는 웹 크롤러를 식별할 때 이 점을 염두에 두십시오.

외부 연결

robots.txt 파일에 포함된 URL은 특정 또는 여러 크롤러에서 허용하지 않는다는 지시가 있음에도 불구하고 때때로 여전히 색인이 생성될 수 있습니다. 어떻게 이럴 수있어? 차단하려는 페이지에 대한 링크가 외부 페이지에 포함되어 있는 경우 웹 크롤러는 콘텐츠를 검색하고 인덱싱할 때 해당 정보를 계속 볼 수 있습니다. 이것은 특정 웹 페이지를 보호하기 위한 추가 옵션을 조사하는 것이 유용할 때의 또 다른 예입니다.

웹사이트에 robots.txt 파일을 사용하면 검색 엔진 프로모션을 위해 푸시하려는 사이트 링크를 지정하고 과도한 검색 엔진 크롤러 요청을 방지할 때 유리합니다.

특히 Robots txt 모범 사례와 관련하여 SEO 준비의 균열을 통과하고 싶지 않은 기본 부분입니다. 이 지침과 권장 사항을 염두에 두시면 검색 엔진 결과 페이지에서 웹사이트의 성능을 방해하지 않고 사이트 속도와 접근성을 개선하는 robots.txt 페이지를 구축하는 데 도움이 됩니다.