모든 검색 엔진 봇이 내 웹 사이트에 액세스하지 못하게하려고합니다.봇이 GCloud에서 호스팅되는 웹 사이트에 액세스하지 못하도록하십시오.
이러한 권한을 robots.txt 파일에 지정할 수 있지만 Google 클라우드에서이 파일을 편집하려면이 파일에 액세스 할 수 있는지 잘 모르겠습니다.
Gcloud와 함께 Python을 사용하여 웹 서버를 개발했습니다.
다음 주제를 읽었습니다. http://stocksonfire.in/seo/edit-robots-txt-google-cloud-solved/ 그러나 리소스에서 VM 인스턴스를 찾지 못했습니다. 먼저 생성해야합니까?
편집 :이 @Dac 손더스 제안을
runtime: python
env: flex
entrypoint: gunicorn -b :$PORT main:app
runtime_config:
python_version: 3
handlers:
- url: /robots\.txt
static_files: robots.txt
upload: robots\.txt
사이드 노트 : 로봇이'robots.txt'를 사용하여 사이트에 액세스하는 것을 막을 수는 없습니다. 오작동으로 인해 파일을 무시할 수 있습니다. http://www.robotstxt.org/faq/blockjustbad.html을 참조하십시오. URL - 을 : robots.txt에 업로드 : static_files /robots\.txt 로봇 \ robots.txt에 앱과 같은 폴더에 존재 된 .txt –