2013-04-30 5 views
3

나는 보험 웹 사이트 www.ehealthinsurance.com을 크롤링하려고합니다. 해당 홈 페이지에는 특정 값을 가지며 다음 페이지가 생성되는 POST 종속 양식이 있습니다. 값을 전달하려고했지만 원하는 태그의 HTML 소스를 찾을 수 없습니다. 어떤 제안이라도 큰 도움이 될 것입니다.스팸을 사용하여 게시물 종속 웹 사이트를 크롤링하는 방법

class ehealthSpider(BaseSpider): 
    name = "ehealth" 
    allowed_domains = ["ehealthinsurance.com/"] 
    start_urls = ["http://www.ehealthinsurance.com/individual-health-insurance"] 

    def parse(self, response): 
     yield FormRequest.from_response(response, 
             formname='main', 
             formdata={'census.zipCode': '48341', 
                'census.requestEffectiveDate': '06/01/2013', 
                'census.primary.gender': 'MALE', 
                'census.primary.month': '12', 
                'census.primary.day': '01', 
                'census.primary.year': '1971', 
                'census.primary.tobacco': 'No', 
                'census.primary.student': 'No'}, callback=self.parseAnnonces) 

    def parseAnnonces(self, response): 
     hxs = HtmlXPathSelector(response) 
     data = hxs.select('//div[@class="main-wrap"]').extract() 
     #print encoding 
     print data 

이 터미널 응답 크롤러

2013-04-30 16:34:16+0530 [elyse] DEBUG: Crawled (200) <GET http://www.ehealthin 
    urance.com/individual-health-insurance> (referer: None) 
    2013-04-30 16:34:17+0530 [elyse] DEBUG: Filtered offsite request to 'www.ehealt 
    insurance.com': <POST http://www.ehealthinsurance.com/individual-health-insuran 
    e;jsessionid=F5A1123CE731FDDDC1A7A31CD46CC132.prfo23a> 
    2013-04-30 16:34:17+0530 [elyse] INFO: Closing spider (finished) 
    2013-04-30 16:34:17+0530 [elyse] INFO: Dumping Scrapy stats: 
    {'downloader/request_bytes': 257, 
    'downloader/request_count': 1, 
    'downloader/request_method_count/GET': 1, 
    'downloader/response_bytes': 32561, 
    'downloader/response_count': 1, 
    'downloader/response_status_count/200': 1, 
    'finish_reason': 'finished', 
    'finish_time': datetime.datetime(2013, 4, 30, 11, 4, 17, 22000), 
    'log_count/DEBUG': 8, 
    'log_count/INFO': 4, 
    'request_depth_max': 1, 
    'response_received_count': 1, 
    'scheduler/dequeued': 1, 
    'scheduler/dequeued/memory': 1, 
    'scheduler/enqueued': 1, 
    'scheduler/enqueued/memory': 1, 
    'start_time': datetime.datetime(2013, 4, 30, 11, 4, 10, 494000)} 

당신이 내게 원하는 데이터를 얻을 도와주세요 수는 다음과 같습니다

인라인은 scrapy 코드?

+0

페이지가 크롤링되기 전에 페이지가 크롤링되는 중입니다. 중간에로드 된 페이지가 있습니다. 양식을 제출하고 결과가 표시되고 리디렉션 된 후입니다. 긁히기 어려워 보입니다. – alecxe

+0

감사 alecxe. 나는 똑같은 것에 대해 연구했고, 내가 이해 한 해결 방법은 치료와 함께 셀레늄 (Selenium)이었다. 그러나 셀레늄로드 페이지를 치료하는 방법을 어떻게 분석해야합니까? 어떤 도움을 주셔서 감사합니다 – Tarun

답변

1

중간 요청이있는 작은 트릭이 작동합니다. formname도 수정했습니다. Scrapy의 훌륭한 디버그 도구는 inspect_response(response)

from scrapy.selector import Selector 
from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor 
from scrapy.contrib.spiders import CrawlSpider, Rule 
from healthinsspider.items import HealthinsspiderItem 
from scrapy.shell import inspect_response 
from scrapy.http import FormRequest 
from scrapy.http import Request 
import time 

class EhealthspiderSpider(CrawlSpider): 
    name = 'ehealthSpider' 
    allowed_domains = ['ehealthinsurance.com'] 
    start_urls = ["http://www.ehealthinsurance.com/individual-health-insurance"] 

    def parse(self, response): 
     yield FormRequest.from_response(response, 
             formname='form-census', 
             formdata={'census.zipCode': '48341', 
                'census.requestEffectiveDate': '06/01/2013', 
                'census.primary.gender': 'MALE', 
                'census.primary.month': '12', 
                'census.primary.day': '01', 
                'census.primary.year': '1971', 
                'census.primary.tobacco': 'No', 
                'census.primary.student': 'No'}, callback=self.InterRequest, 
                dont_filter=True) 

    def InterRequest(self, response): 
     # sleep so, that our request can be processed by the server, than go to results 
     time.sleep(10) 
     return Request(url='https://www.ehealthinsurance.com/ehi/ifp/individual-family-health-insurance!goToScreen?referer=https%3A%2F%2Fwww.ehealthinsurance.com%2Fehi%2Fifp%2Findividual-health-insurance%3FredirectFormHTTP&sourcePage=&edit=false&ajax=false&screenName=best-sellers', dont_filter=True, callback=self.parseAnnonces) 

    def parseAnnonces(self, response): 
     inspect_response(response) 
     hxs = Selector(response) 
     data = hxs.select('//div[@class="main-wrap"]').extract() 
     #print encoding 
     print data 

P.S.입니다. settings.py에서 쿠키를 사용하도록 설정해야합니다. COOKIES_ENABLED=True

관련 문제