2-5-1. 로봇 파일(Robots.txt)이란

로봇 파일(Robots.txt)은 검색 엔진 로봇 또는 크롤러에 웹 사이트의 접근 권한과 제약 사항을 알려주는 파일입니다. robots.txt 파일은 항상 웹사이트의 루트 디렉토리에 위치해야 하며 로봇 배제 표준(Robots Exclusion Standard)에 따라 작성되어야 합니다. 이 파일을 통해 웹 사이트 운영자는 검색 엔진 로봇이 웹사이트를 어떻게 크롤링하고 색인화해야 하는지 지정할 수 있습니다. 이를 통해 웹 페이지의 중요도, 크롤링 주기, 특정 디렉토리 제한 등을 알려줄 수 있습니다.

<aside> 📍 로봇 배제 표준(Robots Exclusion Standard) 웹사이트 소유자가 엔진 로봇이 웹페이지에 액세스하거나 크롤링하는 것을 제어하기 위한 규약입니다.

</aside>

로봇 배제 표준

2-5-2. 로봇 파일이 중요한 이유

robots.txt를 작성하면 검색 엔진이 크롤링해야 할 페이지와 그렇지 않은 페이지를 구분하여 검색 결과에 포함시거나 제외할 수 있습니다. 이는 웹 사이트의 SEO 향상과 콘텐츠 가시성을 돕습니다.

2-5-3. 로봇 파일 작성 방법

대부분의 텍스트 편집기, 예를 들어 메모장, TextEdit, vi를 사용하여 robots.txt 파일을 만들 수 있습니다. 그러나 워드 프로세서는 저장 형식 때문에 크롤링에 문제가 생기는 경우가 많으므로 사용하지 않는 것이 좋습니다.