2015-01-28 4 views
0

현재 Apache Spark 용 앱을 구축 중입니다. Spark은 런타임 중에 많은 의존성을 제공하는데, IDE (IntelliJ)에서 로컬로 응용 프로그램을 테스트/실행하면 일반적으로 필요합니다.IntelliJ의 Maven 종속성 관리

IntelliJ에서 '패키지'또는 일반적인 컴파일/실행 대상을 사용하면 다른 의존성 집합과 관련된 가능성이 있습니까?

예를 들어

,이 하둡

<dependency> 
    <groupId>org.apache.hadoop</groupId> 
    <artifactId>hadoop-common</artifactId> 
    <version>2.6.0</version> 
    <scope>provided</scope> 
</dependency> 

에 필요한 의존하지만 IDE에서 로컬로 실행하면 작동하지 않습니다 '제공'범위입니다.

답변

1

IntelliJ에서 Maven보다 own build process을 사용하려면 IDE에서 add a (global) library to your project dependencies을 지정하는 것이 좋습니다.

확실히 이 기본값으로 이러한 Spark JAR을 제공하지 않으므로 여기에서 Maven에게 말한 것입니다.

+0

괜찮 았기 때문에 Maven에서이 작업을 수행하는 방법이 있습니다. – Marco

+0

Maven 비트를 완료 한 것처럼 보입니다. Maven을 사용하여 _run_하고 싶다면 Spark 런타임을 설정하거나 명령 줄을 사용하거나 [Maven 실행 구성 만들기] (https://www.jetbrains.com/idea/)를 사용할 수 있습니다. help/creating-maven-run-debug-configuration.html)을 IntelliJ에서 실행하여 동일한 작업을 수행하고 다시 JVM에서 사용할 수있는 Spark 종속성을 확인하십시오. – declension