2017-09-22 2 views
0

스파크 데이터 프레임을 csv 및 마루에 쓰는 동안 오류가 발생합니다. 나는 이미 winutil을 설치하려고하지만 여전히 오류를 해결하지는 않습니다.SparkR csv 및 마루로 데이터 프레임을 쓰는 동안 오류가 발생했습니다.

내 코드

INVALID_IMEI <- c("","000000000000000") 
    setwd("D:/Revas/Jatim Old") 
    fileList <- list.files() 
    cdrSchema <- structType(structField("date","string"), 
         structField("time","string"), 
         structField("a_number","string"), 
         structField("b_number", "string"), 
         structField("duration","integer"), 
         structField("lac_cid","string"), 
         structField("imei","string")) 
    file <- fileList[1] 
    filePath <- paste0("D:/Revas/Jatim Old/",file) 
    dataset <- read.df(filePath, header="false",source="csv",delimiter="|",schema=cdrSchema) 
    dataset <- filter(dataset, ifelse(dataset$imei %in% INVALID_IMEI,FALSE,TRUE)) 
    dataset <- filter(dataset, ifelse(isnan(dataset$imei),FALSE,TRUE)) 
    dataset <- filter(dataset, ifelse(isNull(dataset$imei),FALSE,TRUE)) 

dataframe를 내보내려면 다음 코드

write.df(dataset, "D:/spark/dataset",mode="overwrite") 
    write.parquet(dataset, "D:/spark/dataset",mode="overwrite") 

을 시도 그리고 난 이미 가능한 원인을 찾아 다음과 같은 오류

Error: Error in save : org.apache.spark.SparkException: Job aborted. 
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply$mcV$sp(FileFormatWriter.scala:215) 
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply(FileFormatWriter.scala:173) 
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply(FileFormatWriter.scala:173) 
at org.apache.spark.sql.execution.SQLExecution$.withNewExecutionId(SQLExecution.scala:65) 
at org.apache.spark.sql.execution.datasources.FileFormatWriter$.write(FileFormatWriter.scala:173) 
at org.apache.spark.sql.execution.datasources.InsertIntoHadoopFsRelationCommand.run(InsertIntoHadoopFsRelationCommand.scala:145) 
at org.apache.spark.sql.execution.command.ExecutedCommandExec.sideEffectResult$lzycompute(commands.scala:58) 
at org.apache.spark.sql.execution.command.ExecutedCommandExec.sideEffectResult(commands.scala:56) 
at org.apache.spark.sql.execution.comma 

답변

0

를 얻을. 이 문제는 이전에 2.6을 사용하여 winutil 버전에있는 것으로 보입니다. 2.8로 변경하면 문제가 해결됩니다.

관련 문제