robots.txt 사용방법
모든 검색로봇 접근 차단
User-agent: *
Disallow: /
모든 검색로봇 접근 허용
User-agent: *
Allow: /
특정 검색로봇만 허용하고 나머지 차단하기
User-agent: *
Disallow: /
User-agent: *
Allow: Googlebot
특정 폴더만 접근 금지
User-agent: *
Disallow: /폴더명/
검색로봇
네이버 Yetibot
다음 Daumoa
구글 Googlebot
야후 Yahoo! Slurp
마이크로소프트 Msnbot
빙 Bingbot
만약 모든 검색로봇 접근을 허용할 때에는
User-agent: *
Allow: /
이렇게 메모장에 적으신 후 robots.txt 라는 이름으로
텍스트 파일을 저장 하신 후 사이트 경로의 FTP에 업로드 하시면 됩니다.
댓글 3개
7년 전
감사합니다.
7년 전
로보트 검색하려했는데 감사합니다.
6년 전
좋은 정보 감사합니다.
게시판 목록
그누보드5 팁자료실
| 번호 | 제목 | 글쓴이 | 날짜 | 조회 |
|---|---|---|---|---|
| 공지 | 3년 전 | 4399 | ||
| 2694 | 2개월 전 | 187 | ||
| 2693 | 2개월 전 | 146 | ||
| 2692 | 2개월 전 | 157 | ||
| 2691 | 2개월 전 | 173 | ||
| 2690 | 2개월 전 | 325 | ||
| 2689 | 2개월 전 | 232 | ||
| 2688 |
|
2개월 전 | 439 | |
| 2687 | 2개월 전 | 290 | ||
| 2686 |
선택과집중
|
2개월 전 | 328 | |
| 2685 | 2개월 전 | 289 | ||
| 2684 | 2개월 전 | 345 | ||
| 2683 | 2개월 전 | 480 | ||
| 2682 | 2개월 전 | 275 | ||
| 2681 | 2개월 전 | 301 | ||
| 2680 |
선택과집중
|
2개월 전 | 277 | |
| 2679 | 2개월 전 | 329 | ||
| 2678 |
|
2개월 전 | 428 | |
| 2677 |
|
2개월 전 | 501 | |
| 2676 | 2개월 전 | 325 | ||
| 2675 | 2개월 전 | 303 | ||
| 2674 |
선택과집중
|
2개월 전 | 479 | |
| 2673 |
|
2개월 전 | 320 | |
| 2672 | 2개월 전 | 334 | ||
| 2671 | 3개월 전 | 283 | ||
| 2670 | 3개월 전 | 257 | ||
| 2669 | 3개월 전 | 373 | ||
| 2668 | 3개월 전 | 287 | ||
| 2667 |
선택과집중
|
3개월 전 | 482 | |
| 2666 |
선택과집중
|
3개월 전 | 469 | |
| 2665 |
선택과집중
|
3개월 전 | 403 |
댓글 작성
댓글을 작성하시려면 로그인이 필요합니다.
로그인하기