와 링크를 따라하는 I scrapy 거미에 다음 코드가 있습니다쉬운 방법은 Scrapy
class ContactSpider(Spider):
name = "contact"
# allowed_domains = ["http://www.domain.com/"]
start_urls = [
"http://web.domain.com/DECORATION"
]
BASE_URL = "http://web.domain.com"
def parse(self, response):
links = response.selector.xpath('//*[contains(@class,"MAIN")]/a/@href').extract()
for link in links:
absolute_url = self.BASE_URL + link
yield Request(absolute_url, headers= headers, callback=self.second)
내가 링크를 따라하기보다는 각 absolute_url을 구축 할 scrapy에없는 간단한 방법이 놀랍군요입니다. 이 작업을 수행하는 더 좋은 방법이 있습니까?
'CrawlSpider'를 먼저 언급하는 것이 좋습니다 : 저는 이것이 이런 종류의 유스 케이스에 대한 out-of-the-box 거미 클래스라고 생각합니다. –
대단히 감사합니다! – user61629