Spark 2.0.1로 게임을 시작합니다. 새 데이터 집합 API는 매우 깨끗하지만 매우 간단한 작업에는 문제가 있습니다.Spark 2.0.1 java.lang.NegativeArraySizeException
어쩌면 나는 누군가를 도울 수 있기를 바랍니다.
이러한 명령어
SparkConf conf = new SparkConf().setAppName("myapp").setMaster("local[*]");
SparkSession spark = SparkSession
.builder()
.config(conf)
.getOrCreate();
Dataset<Info> infos = spark.read().json("data.json").as(Encoders.bean(Info.class));
System.out.println(infos.rdd().count());
는 JVM (180)에 의해 검출 된
java.lang.NegativeArraySizeException
및 치명적인 오류를 생성한다.
데이터 세트 api를 사용하여 데이터 작업 (즉, 선택, infos 개체 계산)이 올바르게 작동합니다.
어떻게 데이터 세트와 RDD를 전환 할 수 있습니까?
답장을 보내 주셔서 감사합니다. 문제는 spark.read() 및 기타 지침은 라이브러리 호출입니다. 즉, Info.class를 제외하고 사용자 정의 코드없이 라이브러리를 사용한 것입니다. – besil
json, 오류 스택 추적 및 Info 모델 개체 등을 추가로 붙여 넣을 수 있습니까? –