스칼라에서 단어 개수 프로그램을 실행하는 중에 예외가 발생합니다.scala spark 버전이 일치하지 않습니다.
Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/ArrayOps;
at org.apache.spark.util.Utils$.getCallSite(Utils.scala:1406)
해결을위한 Google 검색 스파크와 스칼라간에 불일치가있을 때 이것이 발생하는 것을 이해할 수 있습니다. 내 팸 dependeny 스칼라-SDK-2.11.8 무엇이 잘못되었는지
확실하지가 이리와 다른 버전으로 시도 받는다는 저장소에 시간의 상당한 금액을 지출 한
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>Test</groupId>
<artifactId>Test</artifactId>
<version>1.0-SNAPSHOT</version>
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.1.0</version>
</dependency>
</dependencies>
</project>
및 프로젝트 설정에서 스칼라 버전입니다 조합. 내 로컬 스파크 설치에서
나는 내가 project.but 행운에 대해 같은 스칼라 SDK를 선택한 명령 scala.util.Properties.versionString에게
을 실행하여 바로 스칼라 버전을 알아 냈어.
귀하의 도움에 크게 감사드립니다.
전체 게시물 pom.xml –
이 질문을 업데이 트했습니다. – user155489
스파크 버전이 다운로드 되었습니까? 예 : 버전 2.0부터는 Spark가 기본적으로 스칼라 2.11로 빌드되었습니다. Spark 2.0을 다운로드 했습니까? –