누군가가 사용자 정의 Apache Phoenix SQL 쿼리를 실행하고 RDD 또는 DF에 해당 쿼리의 결과를 저장하는 방법에 대해 pyspark를 사용하여 예제를 제공 할 수 있습니까? 참고 : RDD로 읽을 수있는 전체 테이블이 아닌 사용자 지정 쿼리를 찾고 있습니다.PySpark에서 사용자 정의 Apache Phoenix SQL 쿼리 실행하기
table = sqlContext.read \
.format("org.apache.phoenix.spark") \
.option("table", "<TABLENAME>") \
.option("zkUrl", "<hostname>:<port>") \
.load()
나는 사용자 정의 SQL
sqlResult = sqlContext.read \
.format("org.apache.phoenix.spark") \
.option("sql", "select * from <TABLENAME> where <CONDITION>") \
.option("zkUrl", "<HOSTNAME>:<PORT>") \
.load()
감사를 사용하기위한 대응하는 것과 같습니다 알고 싶어 : 피닉스 문서에서
, 나는이 사용할 수있는 전체 테이블을로드합니다.
에 대한 링크입니다.이 질문에 대한 답변입니까? – YOU
둘 다. JDBC를 사용하여 내가 원하는 것을 달성했지만 Phoenix Spark 옵션을 사용하는 것이 더 좋을 것입니다. 따라서 필자의 시도와 그에 따른 오류 메시지. –
질문은 첫 번째 게시물에서 편집해야합니다. 답변 섹션입니다. stackoverflow 정상적인 포럼처럼되지 않습니다. – YOU