0
현재 Apache Spark 용 앱을 구축 중입니다. Spark은 런타임 중에 많은 의존성을 제공하는데, IDE (IntelliJ)에서 로컬로 응용 프로그램을 테스트/실행하면 일반적으로 필요합니다.IntelliJ의 Maven 종속성 관리
IntelliJ에서 '패키지'또는 일반적인 컴파일/실행 대상을 사용하면 다른 의존성 집합과 관련된 가능성이 있습니까?
예를 들어,이 하둡
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.6.0</version>
<scope>provided</scope>
</dependency>
에 필요한 의존하지만 IDE에서 로컬로 실행하면 작동하지 않습니다 '제공'범위입니다.
괜찮 았기 때문에 Maven에서이 작업을 수행하는 방법이 있습니다. – Marco
Maven 비트를 완료 한 것처럼 보입니다. Maven을 사용하여 _run_하고 싶다면 Spark 런타임을 설정하거나 명령 줄을 사용하거나 [Maven 실행 구성 만들기] (https://www.jetbrains.com/idea/)를 사용할 수 있습니다. help/creating-maven-run-debug-configuration.html)을 IntelliJ에서 실행하여 동일한 작업을 수행하고 다시 JVM에서 사용할 수있는 Spark 종속성을 확인하십시오. – declension