2012-05-08 3 views
0

특정 위키 피 디아 문서의 출처를 내 컴퓨터로 다운로드하려고합니다. 그러나 wget 및 컬 도구가 작동하지 않습니다! 이유가 확실하지 않습니다. wget http://en.wikipedia.org/wiki/List_of_current_NFL_team_rosters 또는 curl http://en.wikipedia.org/wiki/List_of_current_NFL_team_rosters과 같이 입력 할 때마다 나는 횡설수설합니다 (말풍선과 wget 모두 동일 함). 출력의Wget 및 cURL이 위키 백과에서 작동하지 않습니다.

첫 번째 줄은 내가 얻을 : 왜 이런 일이 될 수도에 ??N?????g???????^??L??~???IR?OX/?џ??X???4????b???m??Jk??o߾5E_S???D?xT????y???>??b?C?g?B?#?}????ŏ?Hv?K?dڛ?L˿l?K??,???T?c????n?????F*???'???w??z??d??? ???Y1Id?z?:7C?'W2??(?%>?~ԫ?|~7??4?%qz?r???H?]??P?PH 77I??Z6~{z??UG?~???]?.?#?G?F\????ӓ???8??ߞ?

어떤 아이디어?

+1

재생산 할 수 없습니다. 데이터가 어떤 이유로 gunzip되지 않을 수 있습니까? 'gunzip'을 통해 실행 해보십시오. –

답변

1

터미널에 문제가있는 것 같습니다. 이 시도 : 기본적으로 위키 데이터를 gzip으로 압축 된 형식으로 전송되기 때문에

wget -q -O - http://en.wikipedia.org/wiki/List_of_current_NFL_team_rosters

+0

이와 동일한 문제가 있음 – Mason

2

당신이 gzip으로 에드 데이터를 얻고있는 이유입니다. 당신이 응답의 헤더를 chekc 경우

HTTP/1.0 200 OK 
Date: Tue, 08 May 2012 03:45:40 GMT 
Server: Apache 
X-Content-Type-Options: nosniff 
Cache-Control: private, s-maxage=0, max-age=0, must-revalidate 
Content-Language: en 
Vary: Accept-Encoding,Cookie 
Last-Modified: Tue, 08 May 2012 02:33:41 GMT 
Content-Length: 83464 
Content-Type: text/html; charset=UTF-8 
Age: 6415 
X-Cache: HIT from cp1008.eqiad.wmnet 
X-Cache-Lookup: HIT from cp1008.eqiad.wmnet:3128 
X-Cache: MISS from cp1018.eqiad.wmnet 
X-Cache-Lookup: MISS from cp1018.eqiad.wmnet:80 
Connection: close 
Content-Encoding: gzip 

헤더의 마지막 라인은 당신이 무엇을보고에 대한 단서이다 (당신은 피들러와 같은 도구에서이 작업을 수행 할 수 있습니다). 따라서 wiki에서 출력물을 스트리밍하고 gunzip으로 파이프하여 필요한 응답을 얻을 수 있습니다.

관련 문제