스팸으로 동일한 조건의 여러 페이지를 크롤링하려면 어떻게합니까? 예 : 제품이 포함되지 않은 전자 상거래 사이트의 모든 제품 페이지를 식별하고 싶습니다. 사진 (또는 무언가)스팸으로 크롤링 할 때 동일한 콘텐츠 (예 :/제품)로 크롤링하는 URL
class SomewebsiteProductSpider(scrapy.Spider):
name = "test"
allowed_domains = ["test.com"]
start_urls = [test.com/product] 많은 eamples에서
가 시작 URL이 항상 한 페이지에 해당 볼 I've.
가능합니까? 감사!
[CrawlSpider 클래스] (https://docs.scrapy.org/en/latest/topics/spiders.html#crawlspider)를 확인 했습니까? –