2

모든 검색 엔진 봇이 내 웹 사이트에 액세스하지 못하게하려고합니다.봇이 GCloud에서 호스팅되는 웹 사이트에 액세스하지 못하도록하십시오.

이러한 권한을 robots.txt 파일에 지정할 수 있지만 Google 클라우드에서이 파일을 편집하려면이 파일에 액세스 할 수 있는지 잘 모르겠습니다.

Gcloud와 함께 Python을 사용하여 웹 서버를 개발했습니다.

다음 주제를 읽었습니다. http://stocksonfire.in/seo/edit-robots-txt-google-cloud-solved/ 그러나 리소스에서 VM 인스턴스를 찾지 못했습니다. 먼저 생성해야합니까?

편집 :이 @Dac 손더스 제안을

runtime: python 
env: flex 
entrypoint: gunicorn -b :$PORT main:app 

runtime_config: 
    python_version: 3 

handlers: 
- url: /robots\.txt 
    static_files: robots.txt 
    upload: robots\.txt 
+0

사이드 노트 : 로봇이'robots.txt'를 사용하여 사이트에 액세스하는 것을 막을 수는 없습니다. 오작동으로 인해 파일을 무시할 수 있습니다. http://www.robotstxt.org/faq/blockjustbad.html을 참조하십시오. URL - 을 : robots.txt에 업로드 : static_files /robots\.txt 로봇 \ robots.txt에 앱과 같은 폴더에 존재 된 .txt –

답변

1

을 appling 후 내 애플리케이션 제목을 파일로 내 robots.txt (파이썬에서 appengine가와)과 같습니다.

User-agent: * 
Disallow: /q? 

Sitemap: /sitemap.xml.gz 

<MYAPP>/static/robots.txt에 넣었습니다. 그럼 이런 app.yaml에 매핑 :

handlers: 
- url: /(robots\.txt|favicon\.ico) 
    static_files: static/\1 
    upload: static/.* 

내 robots.txt에 내 도메인의 루트에 접근하게이 방법.

+0

나는 다음과 같은 라인이 핸들러의 robots.txt에 추가했습니다. yaml. favicon.ico가 없기 때문에 자신의 형식을 따르지 못했습니다. /static/ – Qalam

+0

MYWEBSITE/robots.txt를 쓸 때 여전히 파일에 액세스 할 수 없습니다. – Qalam

+0

app.yaml이 현재 보이는대로 표시하겠습니까? robots.txt에 대한 라인을 추가했는지 또는 현재 질문에있는 라인을 교체했는지 여부는 분명하지 않습니다. 방금 게시 한 행 아래에 행을 추가하면 기존 항목 ('url :/(robots \ .txt | favicon \ .ico)')이 먼저 일치하고 추가 사항이 평가되지 않을 수 있습니다. – jjjjoe

관련 문제