2011-02-07 5 views

답변

2

맞춤 설정 방법에 따라 몇 가지 옵션이 있습니다. 가장 유연한 접근법은 로봇 요청을 위해 핸들러를 작성하고 맵핑하고 내부적으로 처리하는 것입니다.

그러나, 대부분의 요구를 들어, 같은 그 뭔가 내 머리 (일명 확률값 나던 100 % 일), 위에 떨어져 URL 재 작성 모듈 http://www.iis.net/download/urlrewrite

하려고

:

<rule name="https_robots"> 
    <match url="(.*)" /> 
    <conditions> 
     <add input="{HTTPS}" pattern="off" ignoreCase="true" /> 
    </conditions> 
    <action type="Redirect" redirectType="Found" url="https://{HTTP_HOST}/robots-https.txt" /> 
</rule> 
+0

난 그냥 구글 싶어 https 페이지의 색인 생성을 중지하십시오. – unj2

+0

URL 재 작성을 사용하여 https://www.whatever.com/robots.txt를 https://www.whatever.com/robots-for-https.txt 또는 원하는 항목으로 다시 작성하십시오. 예를 들어, editted 대답 –

+0

실제로 URL 재 작성을 사용하면 Taylor가 다른 파일을 반환 할 수 있음을 제안하는 규칙을 추가 할 수 있어야합니다 (리디렉션을 통해 또는 다른 파일로 재 작성하는 것이 더 쉬울 수도 있음). robotsSSL.txt와 같은) 파일에서 Disallow :를 설정하면 차단됩니다. –

관련 문제