테스트 사이트 - 개발 중인 베타 버전입니다

robots.txt 사용방법

 

모든 검색로봇 접근 차단
User-agent: *
Disallow: /


모든 검색로봇 접근 허용
User-agent: *
Allow: /


특정 검색로봇만 허용하고 나머지 차단하기
User-agent: *
Disallow: /
User-agent: *
Allow: Googlebot


특정 폴더만 접근 금지
User-agent: *
Disallow: /폴더명/
검색로봇
네이버 Yetibot
다음 Daumoa
구글 Googlebot
야후 Yahoo! Slurp
마이크로소프트 Msnbot
빙 Bingbot

 

 

만약 모든 검색로봇 접근을 허용할 때에는

 

User-agent: *
Allow: /

 

이렇게 메모장에 적으신 후 robots.txt 라는 이름으로

텍스트 파일을 저장 하신 후 사이트 경로의 FTP에 업로드 하시면 됩니다.

댓글 작성

댓글을 작성하시려면 로그인이 필요합니다.

로그인하기

댓글 3개

로보트 검색하려했는데 감사합니다.
좋은 정보 감사합니다.

게시판 목록

그누보드5 팁자료실

글쓰기