2016-11-06 3 views
0

Windows의 우분투에서 bash에 spark 2.0.1을 설치 및 구성하려고합니다. 나는 Apache Spark - Installation의 지침에 따라 모든 것이 내가 이런 spark-shell을 실행하지만 때 확인을 설치받을 듯 :Windows에서 우분투의 bash에서 Spark를 실행하면서 오류를 초기화하는 중 오류가 발생했습니다.

16/11/06 11:25:47 ERROR SparkContext: Error initializing SparkContext. 
java.net.SocketException: Invalid argument 
     at sun.nio.ch.Net.listen(Native Method) 
     at sun.nio.ch.ServerSocketChannelImpl.bind(ServerSocketChannelImpl.java:224) 
     at sun.nio.ch.ServerSocketAdaptor.bind(ServerSocketAdaptor.java:74) 
     at io.netty.channel.socket.nio.NioServerSocketChannel.doBind(NioServerSocketChannel.java:125) 
     at io.netty.channel.AbstractChannel$AbstractUnsafe.bind(AbstractChannel.java:485) 
     at io.netty.channel.DefaultChannelPipeline$HeadContext.bind(DefaultChannelPipeline.java:1089) 
     at io.netty.channel.AbstractChannelHandlerContext.invokeBind(AbstractChannelHandlerContext.java:430) 
     at io.netty.channel.AbstractChannelHandlerContext.bind(AbstractChannelHandlerContext.java:415) 
     at io.netty.channel.DefaultChannelPipeline.bind(DefaultChannelPipeline.java:903) 
     at io.netty.channel.AbstractChannel.bind(AbstractChannel.java:198) 
     at io.netty.bootstrap.AbstractBootstrap$2.run(AbstractBootstrap.java:348) 
     at io.netty.util.concurrent.SingleThreadEventExecutor.runAllTasks(SingleThreadEventExecutor.java:357) 
     at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:357) 
     at io.netty.util.concurrent.SingleThreadEventExecutor$2.run(SingleThreadEventExecutor.java:111) 
     at java.lang.Thread.run(Thread.java:745) 

내가 또는 관련되지 않을 수 있습니다 경고 참조하는 오류 직전 :

16/11/06 11:25:47 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 
16/11/06 11:25:47 WARN Utils: Your hostname, DESKTOP-IKGIG97 resolves to a loopback address: 127.0.0.1; using 151.127.0.0 instead (on interface wifi0) 
16/11/06 11:25:47 WARN Utils: Set SPARK_LOCAL_IP if you need to bind to another address 

저는 리눅스에서 멍청한 사람입니다. 다음에해야 할 일에 관해선 조금 우둔합니다. 경우는 여기에 중요한 내 문제를 식별 할 수 있습니다 여기에 /etc/hosts

127.0.0.1 localhost 
127.0.0.1 DESKTOP-IKGIG97 

# The following lines are desirable for IPv6 capable hosts 
::1 ip6-localhost ip6-loopback 
fe00::0 ip6-localnet 
ff00::0 ip6-mcastprefix 
ff02::1 ip6-allnodes 
ff02::2 ip6-allrouters 
ff02::3 ip6-allhosts 

희망 누군가의 내용입니다. 이 오류를 조사하고 수정하려면 무엇을해야합니까?

오류에서 알 수 있듯이
+0

확인하십시오 : 당신이 우분투 또는 Microsoft Windows에서 실행됩니다? – Yaron

+0

야론, 둘 다 실제로. Windows 10에는 Windows의 우분투에서 bash를 실행할 수있는 기능이 있습니다. http://www.howtogeek.com/265900/everything-you-can-do-with-windows-10s-new-bash-shell/ – jamiet

답변

0

, 스파크가

http://spark.apache.org/docs/2.0.1/configuration.html

환경 변수

특정 불꽃을 설치되어있는 디렉토리에 conf의/spark-env.sh 스크립트에 SPARK_LOCAL_IP를 추가 스파크가 설치된 디렉토리의 conf/spark-env.sh 스크립트에서 읽은 환경 변수를 통해 설정을 구성 할 수 있습니다 ed (또는 Windows의 경우 conf/spark-env.cmd). Standalone 및 Mesos 모드에서이 파일은 호스트 이름과 같은 시스템 특정 정보를 제공 할 수 있습니다. 로컬 Spark 응용 프로그램 또는 제출 스크립트를 실행할 때도 제공됩니다.

Spark 설치시 conf/spark-env.sh는 기본적으로 존재하지 않습니다. 그러나 conf/spark-env.sh.template을 복사하여 복사 할 수 있습니다. 사본을 실행 가능하게 만드십시오.

다음 변수는 spark-env.sh 설정할 수 있습니다 : 기계의

SPARK_LOCAL_IP IP 주소에 바인딩.

이 문제가 해결되지 않는 경우 - 다음 UNIX 명령 실행 출력을 공유하십시오

ifconfig 
+0

Thx 답장. conf/spark-env.sh에 입력 할 수 있도록 내 IP 주소를 알아 내기 위해'/ sbin/ifconfig'를 실행했는데'Warning : can not open/proc/net/dev (그런 파일이 없습니다. 또는 디렉토리). 제한된 출력 .' 나는 그것의 함축을 undestand하지 않지만 좋은 소리하지 않습니다. 나는이 리눅스 환경을 쓰레기로 만들어 처음부터 다시 빌드하려고한다. – jamiet

+0

2016--0-26 일자로 발견했습니다.'''ifconfig 명령이 작동하지 않습니다'''https://github.com/Microsoft/BashOnWindows/issues/908 (상태는 ** Open **입니다. 쓰기). 필자는 Spark이 이런 간단한 작업이 끝날 때까지이 플랫폼에서 작업 할 수있는 희망을 포기해야한다고 생각합니다. – jamiet

관련 문제