2010-12-12 5 views

답변

7

robots.txt 여기 해결책은 아닙니다. 검색 엔진 스파이더와 같은 것들은 특정 URL을 색인화해서는 안된다는 것을 말합니다. 액세스를 방해하지는 않습니다.

는 다음이 포함 super-private.htaccess 파일을 넣어 : 당신이 이런 짓을하면 어쨌든 액세스 할 수 있습니다로

Deny From All 

robots.txt 필요가 없습니다. 특정 사용자에게 액세스를 허용하려면 authentication with .htaccess을 살펴보십시오.

2

robots.txt에이 개인 폴더를 언급하지 마십시오. 그리고 단순히 .htaccess와 그것에 액세스 허용 : 알고해서는 안 다른 페이지 로봇이 super-private 폴더에는 링크가없는 경우 또한

deny from all 

를 그 존재하지만 접근을 허용하지 않는 것은이 경우에 할 수있는 좋은 일이 폴더는 절대로 클라이언트에서 직접 액세스해서는 안됩니다.

관련 문제