Java로 작성된 Spark 작업에서 특정 hdfs 파일에 액세스 할 수있는 모든 linux/centos 사용자 목록을 가져 오려고합니다 .
모든 포인터가 도움이 될 것입니다. 현재 Java 코드 아래에서 정보를 얻기 위해 노력하고 있지만 제대로 작동하지 않습니다. 결과 = Shell.execCommand ("sudo", "bash", "-c", "lid", "-g", "-n", fileOwnersGroup);Spark-Java를 사용하여 hdfs 파일에 액세스 할 수있는 사용자 목록 가져 오기
는 sudo를 던지고있다 : 없음 청각 장애 선물을 더 askpass 프로그램은
이 업데이트의/etc/sudoer하지만, 행운 등 다양한 옵션을 시도 지정되지.
스택 오버플로는 프로그래밍 및 개발 관련 질문에 대한 사이트입니다. 이 질문은 프로그래밍이나 개발에 관한 것이 아니기 때문에 주제와는 거리가 먼 것처럼 보입니다. 도움말 센터에서 [여기에서 내가 질문 할 수있는 항목은 무엇입니까?] (http://stackoverflow.com/help/on-topic)를 참조하십시오. 아마도 [Super User] (http://superuser.com/) 나 [Unix & Linux Stack Exchange] (http://unix.stackexchange.com/)가 더 나은 곳이 될 것입니다. – jww
"쉘 스크립트에서"또는 "내 프로그램에서"를 추가하는 것은 일반적으로 질문을 프로그래밍 및 개발 질문으로 만들기에 충분하지 않습니다. 자바 코드를 보여주고 어디에 문제가 있는지 설명하십시오. – jww
HDFS는 POSIX 파일 시스템이 아닙니다. HDFS "사용자 계정"은 (일반적으로) Linux 사용자에게 매핑되지 않습니다. ** Kerberos를 사용하지 않는 경우 특히 ** ** –