답변 2개
7년 전
/robot.txt 파일을 새로 생성한 뒤,
User-agent: *
Disallow: /
로 저장해주면,
모든 검색봇을 차단해 줍니다. http://devlop.tistory.com/10
로그인 후 평가할 수 있습니다
댓글을 작성하려면 로그인이 필요합니다.
답변을 작성하려면 로그인이 필요합니다.
로그인