2012-08-28 3 views
0

이 답변은 쉽지 않으므로 대신 약간의 안내를 원합니다. 웹 서버에서 이미지를 다운로드하고 싶습니다. 나는 URL에서 이미지를 얻는 방법을 알고 있지만 찾을 수있는 페이지의 수를 모른다. (예 : 01 장은 21 장, 02 장만 12 장 ...)python에서 이미지를 다운로드하십시오.

해당 장의 페이지 수를 알려주는 웹 페이지에 콤보 상자 (DropdownChoice)가 있습니다. 그 정보를 얻을 수있는 방법이 있습니까?

내가 알게되면에 대해 을 페이지 1에서 x 페이지까지 다운로드하여 모든 이미지를 다운로드 할 수 있습니다.

fyi 파이썬을 사용하고 있습니다.

고마워요!

+0

이와 비슷한? http://stackoverflow.com/questions/5974595/download-all-the-linksrelated-documents-on-a-webpage-using-python/5976423#5976423 –

답변

2

빠른 해킹으로 404 (또는 다른 오류)가 나타날 때까지 순차적 인 페이지를 다운로드 할 수 있습니다. 이것은 일반적으로 "좋은"것으로 간주되지 않으므로주의해서 사용해야하지만 모든 이미지를 쉽게 다운로드 할 수 있습니다.

Scrapy 패키지를 사용하면 웹 페이지와 이미지를 다운로드하고 구문 분석 할 수 있습니다.

+0

+1. try : ... except HTTPError : ...''블록을 사용하면 예외 블록에서 HTTPError의 유형을 확인하고 필요에 따라 다시 올리는 것이 가능할 것으로 생각합니다. . 충분히 명확한 except 문을 만들면 (예 :''IOError''를 제외하고는 분명히 나쁠 것입니다.) – Moritz

+0

글쎄, 그것은 클라이언트가 아니라 서버에서 해킹 된 것입니다. 즉, 404 페이지를 다운로드 할 때까지 페이지를 다운로드하는 것은 좋은 양식이 아닙니다. 그러나 이봐, 작동하고, 일회 일종의 프로젝트라면 난 그걸로 완벽하게 괜찮아. – nneonneo

관련 문제