나는 우리의 상자에 ssh 할 수 있고 hadoop fs -ls /theFolder
을 수행하고 파일 등을 찾아 볼 수 있습니다.하지만 그게 전부입니다 :) 내 목표는 그 중 하나를 복사하는 것입니다 - 그들은 Avro입니다 - 내 로컬 홈 폴더에.Hadoop에서 로컬 시스템으로 복사
어떻게 할 수 있습니까? 나는 또한 get
명령을 발견했지만 그 중 하나를 고소하는 방법을 모르겠습니다.
나는 우리의 상자에 ssh 할 수 있고 hadoop fs -ls /theFolder
을 수행하고 파일 등을 찾아 볼 수 있습니다.하지만 그게 전부입니다 :) 내 목표는 그 중 하나를 복사하는 것입니다 - 그들은 Avro입니다 - 내 로컬 홈 폴더에.Hadoop에서 로컬 시스템으로 복사
어떻게 할 수 있습니까? 나는 또한 get
명령을 발견했지만 그 중 하나를 고소하는 방법을 모르겠습니다.
먼저 hadoop fs -get /theFolder
을 사용하여 상자에 넣은 현재 디렉토리로 복사하십시오.
그런 다음 scp
또는 내 선호자인 rsync
을 사용하여 상자와 로컬 시스템간에 파일을 복사 할 수 있습니다. 여기에 -get
사용 후에 난 여전히 같은 디렉토리에, rsync
을 사용하십시오 방법은 다음과 같습니다
rsync -av ./theFolder [email protected]:/home/username
이 컴퓨터의 FS에 홈 폴더로 상자의 로컬 FS에서 theFolder
를 복사합니다. 두 경우 모두 username
을 실제 사용자 이름으로 바꾸고 컴퓨터의 호스트 이름 또는 IP 주소를 yourlocalmachine
으로 바꾸십시오.
MapR을 사용하면 NFS를 사용하여 전체 HDFS를 마운트 한 다음 파일을 쉽게 쉽게 복사 할 수 있습니다. – kichik
조금 더 설명 할 수 있습니까? 나는 멍청한 놈이다 :) –
MapR은 Hadoop의 분포이다. VM으로 다운로드하여 NFS로 재생하고 NFS를 사용하여 HDFS를 마운트 할 수 있습니다. – kichik