저는 현재 하프 프로그램을 개발 중입니다. 매퍼 작업자가 높은 메모리 (약 7G)를 사용하기 때문에 Hadoop이 프로그램을 종료합니다. 한 컴퓨터에서 한 번에 하나의 작업 만 실행할 수있는 방법이 있습니까?하둡 하나의 기계는 하나의 작업 만 실행합니다.
아래의 설정을 시도했지만 작동하지 않았습니다. 작업은 hadoop에 의해 사망했다.
conf.set("mapreduce.tasktracker.reserved.physicalmemory.mb", "7000");
conf.set("mapred.tasktracker.map.tasks.maximum", "1");
클러스터는 mapr-m3
를 사용하는 모든 컴퓨터는 70 % 가용성 15.6GB 메모리를 갖는다. 새 API가 지원 한 경우
mapred.child.java.opts=-Xmx7000m
당신이 매퍼 만에 위해를 지정할 수 있습니다
그런 구성은 restart hadoop을 필요로하며 클라이언트에서 설정할 수 없습니다. – zsxwing