2014-04-12 2 views

답변

0

당신은 HTTP 요청을 사용하여 페이지의 소스를 가져오고 HTML/XML/XHTML 구문 분석기를 사용하여 구조를 분석 할 수 있습니다. 파일을 반복하면 문제가되지 않으므로 일단 구조가되면 HTTP 요청을 사용하여 파일을 다운로드 할 수 있습니다.

코드를 입력하지 않았으므로 여기에서 자세한 대답을하기가 어렵습니다.

download.file(url, destfile, method, quiet = FALSE, mode = "w", 
       cacheOK = TRUE, 
       extra = getOption("download.file.extra")) 

트릭을해야합니다. 이 매우 간단한 경우를 들어 (Download.File)

+0

영업 이익은 그들이''download.file''을 시도 말한다에'system' 전화를 걸 수 있습니다. 당신의 대답은''? download.file'' ... – PatrickT

0

이 폴더는 모든 링크에있다, 그래서 이것은 모든 링크가 폴더입니다

library(XML) 
url <- "http://www.pixeltradr.com/dygraphs/" 
doc <- htmlTreeParse(url,useInternalNodes=T) 
href <- doc["//a/@href"] 
folders <- data.frame(folder=unlist(href[grepl("/$",href)])) 
folders 
#  folder 
# 1  /
# 2 rgbcolor/ 
# 3 strftime/ 
# 4 tests/ 

주, 일부는 단지 파일입니다 작동합니다.

+0

의 단지 일부분이며 어떻게 당신은''download.file''를 사용합니까? 나는''download.file (folders, some_options)''시도없이 성공했다. – PatrickT