나는 여러 개의 스파이더를 동시에 실행하기 위해 Scrapy를 사용하는 솔루션을 구현했습니다. 그러나CloseSpider 예외에 응답하지 않는 치료
from scrapy.exceptions import CloseSpider
class SomeSpider(CrawlSpider):
def parse_items(self, response):
if self.to_be_killed:
raise CloseSpider(reason="Received kill signal")
코드가 인상 보인다하면서, 다음과 같이 내가 여기 읽은 것을 바탕으로 (http://doc.scrapy.org/en/latest/topics/exceptions.html), 정상적으로는 죽을 시간 거미 신호하기 위해, 나는 CloseSpider 예외를 발생한다 예외를 치는 예외는 오랜 시간 동안 거미가 요청을 처리하고 있습니다. 지금하고있는 일을 즉시 중단해야합니다.
나는 Scrapy가 비동기 프레임 워크를 기반으로 구현된다는 것을 알고 있지만 추가 아웃 바운드 요청을 생성하지 않고 스파이더를 강제 종료 할 수있는 방법이 있습니까?
여러 거미를 실행하는 방법도 붙여 넣을 수 있습니까? 원자로가 정지하는 것을 막기 위해 scrapy [signals] (http://doc.scrapy.org/en/latest/topics/signals.html)를 사용할 수 있습니다. –