우리 웹 서버의로드 밸런싱을 곧 시작해야 할 것처럼 보입니다.부하 분산 환경에서 robots.txt를 어떻게 동적으로 편집합니까?
한 호스트에서 문제가되지 않는 robots.txt를 동적으로 편집하라는 기능 요청이 있습니다.하지만 일단로드 밸런서를 설치하고 나면 파일을 scp로 보내야합니다. 다른 호스트.
매우 '나빠'는 것 같습니다. 이 상황을 어떻게 처리할까요?
나는 이미 (imo) 그가 robots.txt 편집에서 원하는 것과 동일한 작업을 효과적으로 수행해야하는 메타 태그 'robots'를 편집 할 수있게했지만 실제로 그 점은 SEO에 대해 많이 알지 못합니다.
아마도 이것을 처리하는 완전히 다른 방법이 있을까요? 우리는 지금 (S3)에 저장됩니다 및 memcache는 프론트 사이드 ...
우리는 그래서 우리는 Merb는을 사용하는 NOW
을 IT를 어떻게하고 같은
UPDATE
보인다. . robots.txt에 경로를 다음과 같이 매핑했습니다.
match('/robots.txt').to(:controller => 'welcome', :action => 'robots')
관련 코드는 다음과 같습니다.
def robots
@cache = MMCACHE.clone
begin
robot = @cache.get("/robots/robots.txt")
rescue
robot = S3.get('robots', "robots.txt")
@cache.set("/robots/robots.txt", robot, 0)
end
@cache.quit
return robot
end
이 질문은 serverfault에서 더 좋을 수도 있지만 복제 에이전트가 처리하지 못한 이유가 있습니까? 어쨌든 서버간에 어떤 종류의 복제 정책이 필요할 것입니다. 왜 그렇게 할 수없는 이유가 있습니까? –
yeh .. 만약 지금 DB가 DB에 저장되어 있다면 ... 아주 추한 소리가납니다 ... – eyberg