테스트 사이트 - 개발 중인 베타 버전입니다

구글에서 URL로 검색시 문제가 있는데 아시는분 계시나요? 채택완료

웹호스팅 이용하는 홈페이지에 ssl 설치 후  

.htaccess를 이용해서 홈페이지 접속시 무조건 https로 연결되게 했습니다.

 

그런데 구글에서 검색시 검색어로는 제대로 검색되고

https://도메인명으로">https://도메인명으로 검색해도 검색이 되는데...

 

http://도메인명">http://도메인명 이나 그냥 도메인명으로만 검색하면

"사이트의 robots.txt 때문에 검색결과의 설명을 확인할 수 없습니다."

라고 나옵니다.

 

robots.txt는 아래처럼 작성해서 문제가 없는거 같은데 말이죠.

User-agent: *

Allow: /

 

다른 분들 홈페이지는 구글에서 주소로 검색시

https를 붙이나 안붙이나 동일하게 나오던데, 이거 왜 이런걸까요?

아마 https로의 연결을 .htaccess가 아닌 서버자체에서 설정을 해서 제대로 나오는거 같기는 한데... 

 

또 이런 저런 홈페이지 검색해보면

대기업 홈페이지고 https를 이용하지도 않는데,

도메인명이나 회사명으로 검색해도 

"사이트의 robots.txt 때문에 검색결과의 설명을 확인할 수 없습니다."

라는 메세지 나오는곳도 있네요.

이곳도 robots.txt는 저와 동일하던데...

 

이거 원인이나 해결방법 아시는분 계시나요?

댓글을 작성하려면 로그인이 필요합니다.

답변 1개

채택된 답변
+20 포인트

robots.txt 를 아무것도 작성하지 않은 빈 문서로 해 놓아도 같은 현상이 생기는지요?

 

로그인 후 평가할 수 있습니다

답변에 대한 댓글 1개

답변 감사합니다.
그러지 않아도 나중에 robots.txt를 삭제해볼까 했는데,
아직 네이버에 검색 결과가 나오지 않는 상태라서 그대로 두고 있었습니다.

댓글을 작성하려면 로그인이 필요합니다.

답변을 작성하려면 로그인이 필요합니다.

로그인

전체 질문 목록