2015-01-19 2 views
0

문제 : 동일한 정규 경로가있는 두 개의 Java 클래스가 있습니다.java.lang.IllegalAccessError : 상위 인터페이스에 액세스 할 수 없습니다.

EMR 작업을 실행 중입니다. 모든 종속성 병을 단일 병에 포장하고 S3에 업로드하고 있습니다. EMR 클러스터는 S3에서이 항아리를 소비한다고 가정합니다. 하지만 오류를 얻고있다 :

내가 지금까지 시도 무엇
Exception in thread "main" java.lang.IllegalAccessError: class org.apache.hadoop.fs.s3native.AbstractNativeS3FileSystemStore cannot access its superinterface org.apache.hadoop.fs.s3native.NativeFileSystemStore at java.lang.ClassLoader.defineClass1(Native Method) at java.lang.ClassLoader.defineClass(ClassLoader.java:800) at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142) at java.net.URLClassLoader.defineClass(URLClassLoader.java:449) at java.net.URLClassLoader.access$100(URLClassLoader.java:71) at java.net.URLClassLoader$1.run(URLClassLoader.java:361) at java.net.URLClassLoader$1.run(URLClassLoader.java:355) at java.security.AccessController.doPrivileged(Native Method) at java.net.URLClassLoader.findClass(URLClassLoader.java:354) at java.lang.ClassLoader.loadClass(ClassLoader.java:425) at java.lang.ClassLoader.loadClass(ClassLoader.java:358) at java.lang.Class.forName0(Native Method) at java.lang.Class.forName(Class.java:270) at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:861) at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:906) at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1411) at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:68) at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1435) at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:260) at org.apache.hadoop.fs.Path.getFileSystem(Path.java:187) at org.apache.hadoop.mapreduce.lib.input.FileInputFormat.setInputPaths(FileInputFormat.java:352) at org.apache.hadoop.mapreduce.lib.input.DelegatingInputFormat.getSplits(DelegatingInputFormat.java:110) at org.apache.hadoop.mapred.JobClient.writeNewSplits(JobClient.java:1016) at org.apache.hadoop.mapred.JobClient.writeSplits(JobClient.java:1033) at org.apache.hadoop.mapred.JobClient.access$700(JobClient.java:174) at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:951) at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:904) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1140) at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:904) at org.apache.hadoop.mapreduce.Job.submit(Job.java:501) at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:531) at com.amazon.idq.chia.aws.emr.mains.BaseFilterStepMain.configureAndRunJob(BaseFilterStepMain.java:51) at com.amazon.idq.chia.aws.emr.mains.BaseFilterStepMain.run(BaseFilterStepMain.java:84) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:79) at com.amazon.idq.chia.aws.emr.mains.FFilterHybridStepMain.main(FFilterHybridStepMain.java:24) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.util.RunJar.main(RunJar.java:187) 

: 나는 두 버전의 가시성이 다르다는 것을 지적했다. 코드가 Jar2 버전의 NativeFileSystemStore (공용 액세스) 클래스를 기대할 때 Classloader가 jar1에서 NativeFileSystemStore (기본 액세스) 클래스를 선택했다고 생각했습니다. 그래서 빌드 스크립트를 수정했습니다 : 1. jar1과 jar2의 압축을 풉니 다. 2. jar1에서 제한적인 클래스 NativeFileSystemStore를 제거했습니다. 3. org.apache.hadoop.fs.s3native. *를 jar2에서 jar1로 이동하십시오. 3. jar1-resolved.jar 및 jar2-resolved.jar로 클래스를 다시 패키징하십시오. 4. EMR 작업을 다시 실행하십시오.

결과 : 여전히 같은 오류가 발생합니다.

답변

0

대부분의 경우 IllegalAccessError의 이유는 버전이 일치하지 않기 때문입니다. org.apache.hadoop.fs.s3native.NativeFileSystemStore (해결 된 jar 파일에 포함 된 파일)과 "javap -version"또는 "javap -verbose $ classname $ | grep 'major" org.apache.hadoop.fs.s3native.AbstractNativeS3FileSystemStore (내가 코딩했다고 생각하는)와 일치하는지 확인하십시오.

관련 문제