아래는 내가 포럼에서 찾은 스크립트이며, 거의 30 개 URL을 읽고 모든 것을 함께 인쇄해야하는 것을 제외하고는 거의 필요한 스크립트입니다. 몇 가지 옵션을 시도했지만 스크립트 그냥 휴식. 30 개의 URL을 모두 병합하고 구문 분석 한 다음 인쇄하는 방법은 무엇입니까?Python - 많은 URL 병합 및 구문 분석
내가 도와 주시면 아주 좋을 것입니다.
import sys
import string
from urllib2 import urlopen
import xml.dom.minidom
var_xml = urlopen("http://www.test.com/bla/bla.xml")
var_all = xml.dom.minidom.parse(var_xml)
def extract_content(var_all, var_tag, var_loop_count):
return var_all.firstChild.getElementsByTagName(var_tag)[var_loop_count].firstChild.data
var_loop_count = 0
var_item = " "
while len(var_item) > 0:
var_title = extract_content(var_all, "title", var_loop_count)
var_date = extract_content(var_all, "pubDate", var_loop_count)
print "Title: ", var_title
print "Published Date: ", var_date
print " "
var_loop_count += 1
try:
var_item = var_all.firstChild.getElementsByTagName("item")[var_loop_count].firstChild.data
except:
var_item = ""