내가 쿼리 아래 실행하고 노력하고 있습니다 : select a.event_date,
date_format(date_trunc('month', a.event_date), '%m/%d/%Y') as date
from monthly_test_table a
order by 1;
출력 :이 2017-09-15 | 09/01/2017
2017-10-
--incremental sqoop 가져 오기 스위치가 SQOOP를 통한 HIVE 가져 오기에 작동하지 않는 것으로 알려져 있습니다. 하지만 그 해결 방법은 무엇입니까? 1) 내가 만들 수있는 한 가지는 HIVE 테이블을 만들고 SQOOP를 통해 증분 데이터를 HDFS로 가져 와서 수동으로로드 할 수 있다는 것입니다. 그러나 우리가 그것을하고 있다면, 매번
SQL 1 select p.aaa, t.bbb
FROM fdm.xxx p
JOIN gdm.yyy t
ON p.id = t.id
where p.dp='CUR';
SQL 2 select p.aaa, t.bbb
FROM (select * from fdm.xxx p where p.dp='CUR') p
JOIN gdm.yyy t
ON p.id =
Array 및 Array와 같은 복잡한 데이터 유형 열이있는 테이블을 처리 할 때 Spark 2에서 CastClassException을 가져 오는 중입니다. 내가 시도 작업은 간단 하나입니다 계산 df=spark.sql("select * from <tablename>")
df.count
하지만 스파크 응용 프로그램 Exception in thread
1 월 31 일, 2 월 28 일 등과 같이 매월 마지막 날짜를 원합니다. 나는 CURRENT_DATE와 아래 시도하고 작동하지만 내 날짜 열을 사용하는 경우는 null를 돌려 : SELECT datediff(CONCAT(y, '-', (m + 1), '-', '01'), CONCAT(y, '-', m, '-', '01')) FROM
(SELECT
mo
Spark 2.1.0 Java API를 사용하여 DataFrame (행의 데이터 집합)을 하이브 테이블로 유지하려고합니다. DataFrameWriter 클래스의 saveAsTable 메서드를 사용해 보았습니다. 내 하이브에서 데이터 저장 아직 지원되지 않습니다 테이블을 serde : 내가 AnalysisException이 org.apache.spark.sq
table A이 아닌 공백이 있고 table B의 데이터 (둘 다 동일한 #columns 및 데이터 형식을 가짐)가있는이 데이터를 추가하고 싶습니다. 내가 만드는 동안 insert into table A
select * from table B;
같은 일반 테라 데이타 SQL 삽입 구문 내가 table A 변경할 수 있도록해야 사용할 수 있습니까?
내가 특정 레코드를 제외하려고 하이브 오프셋 쿼리를 실행하려고 노력하지만, 항상 아래의 오류를 얻고있다 : 검색어 : select * from sample order by id limit 1 OFFSET 1;
오류 : FAILED: ParseException line 1:41 missing EOF at 'OFFSET' near '1'
나는 테이블을
이 데이터가 있습니다. 나는 그것을 집계하고 집계 된 데이터에 row_number를 넣고 싶다. | ID_1 | time| ID_2 |
a, 1, 36
a, 2, 36
a, 3, 45
a, 4, 65
b, 1, 75
b, 2, 35
b, 3, 35
b, 4, 76
원하는 결과는 다음과 같습니다. | ID_1 | ID_2| R