2017-02-09 1 views
0

안녕하세요,이 명령은 hadoop 클러스터의 끝 노드 중 하나에서 실행 중입니다. hdfs에서 일부 원격 시스템으로 데이터를 복사하려고합니다. 로컬 컴퓨터에서 제한된 디스크 할당량 때문에 로컬로 저장할 수 없습니다. 실행하고 싶습니다 hdfs dfs -get /data/abc remotemac/abchdfs에서 원격 시스템으로 복사

+0

당신이 얘기하는 원격 시스템인가 약, 또 다른 하o 클러스터? 그렇다면'distcp'를 사용할 수 있습니다. – daemon12

+0

해당 hadoop 클러스터가 아닙니다. 그것의 원격 독립형 리눅스 머신 –

답변

0

직접 할 수는 없지만 HoopWebHDFS REST API를 살펴볼 수 있습니다. 후프는 HTTP/HTTPS를 통한 HDFS 읽기 및 쓰기에 대한 액세스를 제공합니다.

Hortonworks에는 WebHDFS HTTP rest access to HDFS에 관한 블로그가 있습니다.

sshj을 사용하는 다른 해결책이 있습니다. 하는 SSH v2의 순수 자바 구현 당신은 SSHD 서버에 연결하고 다음과 같은 기준에서 세부 정보보기 등의 포트 포워딩, 파일 전송을 사용할 수있게된다

참조 : https://blog.layer4.fr/2013/04/09/transfert-files-from-hadoop-to-a-remote-server-via-ssh/

관련 문제