Hadoop 2.5.1에 문제가있어 요청한 힙 공간이 증가하지 않습니다. Hadoop은 mapred-site.xml 파일의 mapred.child.java.opts 속성을 존중하지 않는 것 같습니다. 내 직업에Hadoop 힙 할당
내가 다음을 수행하고 java.lang.OutOfMemoryError와 : Java 힙 공간
이미지의 크기에 따라R = new int[height * width];
G = new int[height * width];
B = new int[height * width];
를 나는 작업에 의한
말을 충돌하는 통과
이해할 수 있습니다. 힙 공간을 늘려야하지만 Hadoop이 mapred-site.xml 파일의 변경 사항을 존중하기를 원하지 않습니다.
나는 나의 mapred-site.xml을이 추가되고 문제가 해결되지 않은 경우<property>
<name>mapred.child.java.opts</name>
<value>-Xmx12072m</value>
</property>
를 다시 시작 내 mapred-env.sh이 추가 및
export HADOOP_JOB_HISTORYSERVER_HEAPSIZE=4000
때 다시 시작 작동하지 않았다. 내 yarn-env.sh에 이것을 추가하고 다시 시작한다.
JAVA_HEAP_MAX=-Xmx4000m
이것이 작동하지 않으면 내 yarn-env .sh로하고 내가 시작을 사용하여 다시 시작한
export HADOOP_HEAPSIZE=4000
export HADOOP_NAMENODE_INIT_HEAPSIZE="3000"
을 내 hadoop-env.sh이 추가 작업을 다시 시작하지 않은 경우
YARN_HEAPSIZE=4000
를 다시 시작/시작/정지 stop-dfs.sh -all.sh start/stop-yarn.sh와 그 조합. 서버를 다시 시작했지만 아직 변경 사항을 확인하지 못했습니다.
나는 내가 할 수있는 일이나 내가 바꿀 수있는 것을 잃어 버렸다.
이 디버깅을 시도 할 수 있도록 작업 내에서 힙 크기를 확인할 수있는 방법이 있습니까?
나는 당신의 제안도 시도했지만 그 역시 효과가 없었다. 그 기계는 64GB의 메모리를 가지고있어서 나는 단지 메모리의 부족을 문제로 배제하려고 노력하고있었습니다. 내가 처리하려고했던 이미지의 크기는 ~ 800MB의 메모리 만 필요했습니다. –
나는 대답으로 한 것을 올렸다. –