2010-06-24 6 views
2

아래는 내가 포럼에서 찾은 스크립트이며, 거의 30 개 URL을 읽고 모든 것을 함께 인쇄해야하는 것을 제외하고는 거의 필요한 스크립트입니다. 몇 가지 옵션을 시도했지만 스크립트 그냥 휴식. 30 개의 URL을 모두 병합하고 구문 분석 한 다음 인쇄하는 방법은 무엇입니까?Python - 많은 URL 병합 및 구문 분석

내가 도와 주시면 아주 좋을 것입니다.

import sys 
import string 
from urllib2 import urlopen 
import xml.dom.minidom 

var_xml = urlopen("http://www.test.com/bla/bla.xml") 
var_all = xml.dom.minidom.parse(var_xml) 

def extract_content(var_all, var_tag, var_loop_count): 
    return var_all.firstChild.getElementsByTagName(var_tag)[var_loop_count].firstChild.data 

var_loop_count = 0 
var_item = " " 
while len(var_item) > 0: 
    var_title = extract_content(var_all, "title", var_loop_count) 
    var_date = extract_content(var_all, "pubDate", var_loop_count) 
    print "Title:   ", var_title 
    print "Published Date: ", var_date 
    print " " 
    var_loop_count += 1 

    try: 
     var_item = var_all.firstChild.getElementsByTagName("item")[var_loop_count].firstChild.data 
    except:  
     var_item = "" 

답변