2015-02-06 3 views
2

검색 엔진 쿼리 로그에서 추출한 세션 내에서 사용자 작업을 연구하고 싶습니다. 나는 처음 두 종류의 행동을 정의한다 : 질의와 진앙. 쿼리의 Bigram 빈도가 Apache Spark로 이벤트를 기록합니다.

sealed trait Action{} 
case class Query(val input:String) extends Action 
case class Click(val link:String) extends Action 

쿼리 로그에 첫 번째 작업이 밀리 초 단위로 다음과 같은 타임 스탬프에 의해 주어진다 있다고 가정하자 :
val t0 = 1417444964686L // 2014-12-01 15:42:44 

이 일시적으로 세션 ID에 관련된 작업을 주문의의가 코퍼스를 정의 할 수 있습니다.

val query_log:Array[(String, (Action, Long))] = Array (
("session1",(Query("query1"),t0)), 
("session1",(Click("link1") ,t0+1000)), 
("session1",(Click("link2") ,t0+2000)), 
("session1",(Query("query2"),t0+3000)), 
("session1",(Click("link3") ,t0+4000)), 
("session2",(Query("query3"),t0+5000)), 
("session2",(Click("link4") ,t0+6000)), 
("session2",(Query("query4"),t0+7000)), 
("session2",(Query("query5"),t0+8000)), 
("session2",(Click("link5") ,t0+9000)), 
("session2",(Click("link6") ,t0+10000)), 
("session3",(Query("query6"),t0+11000)) 
) 

그리고 우리는이 quey_log에 대한 RDD를 만들기 : 로그는 다음 세션 ID

val sessions_groups:RDD[(String, Iterable[(Action, Long)])] = logs.groupByKey().cache() 

이제, 우리는 세션 내에서 작업 cooccurrences을 공부하고자별로 그룹화됩니다

import org.apache.spark.rdd.RDD 
var logs:RDD[(String, (Action, Long))] = sc.makeRDD(query_log) 

, 예를 들어, 세션에서 다시 쓰기의 숫자. 그런 다음 세션 동작에서 초기화 될 Cooccurrences 클래스를 정의합니다.

case class Cooccurrences(
    var numQueriesWithClicks:Int = 0, 
    var numQueries:Int = 0, 
    var numRewritings:Int = 0, 
    var numQueriesBeforeClicks:Int = 0 
) { 
// The cooccurrence object is initialized from a list of timestamped action in order to catch a session group 
    def initFromActions(actions:Iterable[(Action, Long)]) = { 
    // 30 seconds is the maximal time (in milliseconds) between two queries (q1, q2) to consider q2 is a rewririting of q1 
    var thirtySeconds = 30000 
    var hasClicked = false 
    var hasRewritten = false 
    // int the observed action sequence, we extract consecutives (sliding(2)) actions sorted by timestamps 
    // for each bigram in the sequence we want to count and modify the cooccurrence object 
    actions.toSeq.sortBy(_._2).sliding(2).foreach{ 
     // case Seq(l0) => // session with only one Action 
     case Seq((e1:Click, t0)) => { // click without any query 
     numQueries = 0   
     } 
     case Seq((e1:Query, t0)) => { // query without any click 
     numQueries = 1   
     numQueriesBeforeClicks = 1 
     } 
     // case Seq(l0, l1) => // session with at least two Actions 
     case Seq((e1:Click, t0), (e2:Query, t1)) => { // a click followed by a query 
     if(! hasClicked) 
      numQueriesBeforeClicks = numQueries 
     hasClicked = true 
     } 
     case Seq((e1:Click, t0), (e2:Click, t1)) => { //two consecutives clics 
     if(! hasClicked) 
      numQueriesBeforeClicks = numQueries 
     hasClicked = true 
     } 
     case Seq((e1:Query, t0), (e2:Click, t1)) => { // a query followed by a click 
     numQueries += 1 
     if(! hasClicked) 
      numQueriesBeforeClicks = numQueries 
     hasClicked = true 
     numQueriesWithClicks +=1 
     } 
     case Seq((e1:Query, t0), (e2:Query, t1)) => { // two consecutives queries 
     val dt = t1 - t0 
     numQueries += 1 
     if(dt < thirtySeconds && e1.input != e2.input){ 
      hasRewritten = true 
      numRewritings += 1 
     } 
     } 
    } 
    } 

} 이제

,의 각 세션에 대해 Cooccurrences의 RDD을 계산 해보자 : 불행하게도

val session_cooc_stats:RDD[Cooccurrences] = sessions_groups.map{ 
    case (sessionId, actions) => { 
    var coocs = Cooccurrences() 
    coocs.initFromActions(actions) 
    coocs 
    } 
} 

, 다음 MatchError

scala> session_cooc_stats.take(2) 

15/02/06 22:50:08 ERROR Executor: Exception in task 0.0 in stage 1.0 (TID 4) scala.MatchError: List((Query(query3),1417444969686), (Click(link4),1417444970686)) (of class scala.collection.immutable.$colon$colon) at $line25.$read$$iwC$$iwC$Cooccurrences$$anonfun$initFromActions$2.apply(<console>:29) 
    at $line25.$read$$iwC$$iwC$Cooccurrences$$anonfun$initFromActions$2.apply(<console>:29) 
    at scala.collection.Iterator$class.foreach(Iterator.scala:727) 
    at scala.collection.AbstractIterator.foreach(Iterator.scala:1157) 
    at $line25.$read$$iwC$$iwC$Cooccurrences.initFromActions(<console>:29) 
    at $line28.$read$$iwC$$iwC$$iwC$$iwC$$anonfun$1.apply(<console>:31) 
    at $line28.$read$$iwC$$iwC$$iwC$$iwC$$anonfun$1.apply(<console>:28) 
    at scala.collection.Iterator$$anon$11.next(Iterator.scala:328) 
    at scala.collection.Iterator$$anon$10.next(Iterator.scala:312) 
    at scala.collection.Iterator$class.foreach(Iterator.scala:727) 
    at scala.collection.AbstractIterator.foreach(Iterator.scala:1157) 
    at scala.collection.generic.Growable$class.$plus$plus$eq(Growable.scala:48) 
    at scala.collection.mutable.ArrayBuffer.$plus$plus$eq(ArrayBuffer.scala:103) 
    at scala.collection.mutable.ArrayBuffer.$plus$plus$eq(ArrayBuffer.scala:47) 
    at scala.collection.TraversableOnce$class.to(TraversableOnce.scala:273) 
    at scala.collection.AbstractIterator.to(Iterator.scala:1157) 
    at scala.collection.TraversableOnce$class.toBuffer(TraversableOnce.scala:265) 
    at scala.collection.AbstractIterator.toBuffer(Iterator.scala:1157) 
    at scala.collection.TraversableOnce$class.toArray(TraversableOnce.scala:252) 
    at scala.collection.AbstractIterator.toArray(Iterator.scala:1157) 
    at org.apache.spark.rdd.RDD$$anonfun$26.apply(RDD.scala:1081) 
    at org.apache.spark.rdd.RDD$$anonfun$26.apply(RDD.scala:1081) 
    at org.apache.spark.SparkContext$$anonfun$runJob$4.apply(SparkContext.scala:1314) 
    at org.apache.spark.SparkContext$$anonfun$runJob$4.apply(SparkContext.scala:1314) 
    at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:61) 
    at org.apache.spark.scheduler.Task.run(Task.scala:56) 
    at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:196) 
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) 
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) 
    at java.lang.Thread.run(Thread.java:745) 
15/02/06 22:50:08 WARN TaskSetManager: Lost task 0.0 in stage 1.0 (TID 4, localhost): scala.MatchError: List((Query(query3),1417444969686), (Click(link4),1417444970686)) (of class scala.collection.immutable.$colon$colon) 
    at $line25.$read$$iwC$$iwC$Cooccurrences$$anonfun$initFromActions$2.apply(<console>:29) 
    at $line25.$read$$iwC$$iwC$Cooccurrences$$anonfun$initFromActions$2.apply(<console>:29) 
... 

내가 빌드하는 경우를 제기 session_cooc_stats의 첫 번째 그룹과 동일한 액션 목록 RDD

val actions:Iterable[(Action, Long)] = Array(
(Query("query1"),t0), 
(Click("link1") ,t0+1000), 
(Click("link2") ,t0+2000), 
(Query("query2"),t0+3000), 
(Click("link3") ,t0+4000) 
) 

나는 내가 RDD에서 동시 발생 오브젝트를 빌드 할 때

var c = Cooccurrences() 
c.initFromActions(actions) 
// c == Cooccurrences(2,2,0,1) 

뭔가 잘못된 것 같습니다 예상 결과를 얻을. groupByKey()로 빌드 된 CompactBuffer에 연결되어있는 것처럼 보입니다.
누락 된 항목이 있습니까?

저는 Spark와 Scala를 처음 사용합니다. 도움을 주셔서 감사드립니다.

토마스

+0

방금 ​​연결 했으니 까 ... –

+0

Spark 명령어'session_cooc_stats.take (2)'를 변경하지 않고 실제로 실행할 수 있습니까? 목록에있는 scala.MatchError (Query (query3), 1417444969686) (클릭 (link4), 1417444970686) 여전히 오류가 발생합니다. –

답변

-2

IntelliJ에 코드를 설정했습니다.

조치, 조회, 클릭 및 통합을위한 하나의 클래스를 작성하십시오.

코드를 기본 코드로 사용하십시오.

val sessions_groups:RDD[(String, Iterable[(Action, Long)])] = logs.groupByKey().cache() 

    val session_cooc_stats:RDD[Cooccurrences] = sessions_groups.map{ 
    case (sessionId, actions) => { 
     val coocs = Cooccurrences() 
     coocs.initFromActions(actions) 
     coocs 
    } 
    } 
    session_cooc_stats.take(2).foreach(println(_)) 

그냥 수정 var에 coocs> 발에 coocs는

나는 점 추측.

Cooccurrences (0,1,0,1)

Cooccurrences (2,3,1,1)

0

당신이 좋습니다, 나는 인 IntelliJ와 코드를 재 작성하고 주를위한 동반자 객체를 생성 기능. 놀랍게도 코드는 (sbt로) 컴파일되고 완벽하게 실행됩니다.

그러나 컴파일 된 코드가 실행되는 이유와 스파크 - 쉘이 작동하지 않는 이유를 실제로 이해하지 못합니다.

답장을 보내 주셔서 감사합니다.

관련 문제