로컬 컴퓨터에서 원격 컴퓨터의 HDFS로 많은 양의 파일을 전송하는 스크립트가 있습니다. 스크립트에서는이 같은 ssh
사용이후의 명령에 대해 여러 SSH 연결을 유지하십시오.
cat localfile | ssh [email protected] 'hadoop fs -put - path-to-target-file'
나는 전송할 파일을 많이 가지고 있고, 각 전송 전에 각 전송에 따라서, 이미 같은 이름의 대상 파일이 존재하는지 여부를 확인해야하기 때문에 두 개의 ssh 명령을 사용해야합니다 (존재 확인). SSH 연결을 설정하는 것은 시간 소모적이기 때문에 SSH 연결을 유지하는 방법이 있는지 궁금해합니다. 첫 번째 연결이 성공한 후 다른 ssh 명령은 새 연결을 설정하려고 시도하지 않고 이전 연결을 직접 사용하려고 시도합니다.
또한 업로드를 위해 여러 프로세스를 사용했습니다. 여러 개의 다른 연결을 유지할 수 있습니까? 예를 들어 4 개의 프로세스를 사용하는 경우 4 개의 다른 연결을 동시에 유지할 수 있습니까?
감사합니다.
'scp'와'rsync'는 친구입니다! – marekful