2013-11-07 2 views
2

wget을 사용하여 재귀 적으로 전체 웹 페이지를 다운로드하고 싶습니다. 예를 들어, 깊이 2 레벨의 페이지에 레벨 1 (이미 다운로드 한 페이지)에 대한 링크가 있으면 다시 다운로드 할 수 있습니까? 그렇다면이 문제를 방지 할 수있는 방법이 있습니까?은 재귀 wget 다운로드 URL을 방문합니까?

수동 wget 유사 스크립트가 wget보다 더 적합할까요? 아니면 반복해서 다운로드하는 것을 피하도록 최적화되어 있습니까?

미리 단일 wget을 실행 두 번 같은 페이지를 다운로드하려고해서는 안

답변

1

에 감사 (나는 모든 페이지에 표시되는 메뉴 링크에 대한 특히 걱정입니다). 미러링을 수행하면 미러링에 유용하지 않습니다. :) 또한 다른 도메인이나 상위 디렉토리로 돌아 가기를 거부하는 등 몇 가지 다른 failsafe가 있습니다.

옳은 일을하고 싶다면 그냥 시도해보고 그 결과를 관찰하는 것이 좋습니다. 언제든지 ^C을 매시 수 있습니다.