현재 urllib2
을 사용하여 웹 사이트의 페이지를 가져 와서 구문 분석하고 있습니다. 그러나 그들 중 많은 수가 (1000 개 이상) 순차적으로 처리하는 것은 고통스럽게 느립니다.Python 2.6 : urllib2를 사용하여 병렬 구문 분석
페이지를 병렬로 검색하고 구문 분석 할 수있는 방법이 있었으면합니다. 그게 좋은 생각이라면 가능한 일인가? 나는 그것을 어떻게 할 수 있는가?
병렬로 처리 할 페이지 수에 대한 "합리적인"값은 무엇입니까 (너무 많은 연결을 사용하기 때문에 서버에 너무 많은 부담을주지 않거나 차단할 수 없습니까?).
감사합니다.
, 내가 확인해 볼게 그것. 감사! –