>
검색 엔진 크롤러를 위한 robots.txt 파일을 쉽게 생성하세요
활성화하면 다음 AI 크롤러들이 차단됩니다:
# robots.txt generated by 블로그매니져 # https://example.com/robots.txt User-agent: * Allow: /
robots.txt는 검색 엔진 크롤러에게 웹사이트의 어떤 부분을 크롤링할 수 있는지 알려주는 텍스트 파일입니다. 올바른 robots.txt 설정은 SEO의 기본입니다.
검색 엔진이 접근할 수 있는 페이지를 제어합니다.
불필요한 크롤링을 방지하여 서버 리소스를 절약합니다.
관리자 페이지 등 노출을 원하지 않는 경로를 차단합니다.
GPTBot, ChatGPT 등 AI 크롤러의 접근을 제어합니다.
robots.txt는 권고 사항입니다. 선의적인 크롤러는 이를 따르지만, 악의적인 크롤러는 무시할 수 있습니다. 민감한 정보는 별도의 인증으로 보호하세요.
| 지시어 | 설명 | 예시 |
|---|---|---|
| User-agent | 규칙을 적용할 크롤러 지정 | User-agent: Googlebot |
| Disallow | 크롤링을 차단할 경로 | Disallow: /admin/ |
| Allow | 크롤링을 허용할 경로 | Allow: /public/ |
| Sitemap | 사이트맵 위치 알림 | Sitemap: https://example.com/sitemap.xml |