2014-06-10 2 views
0

저는 pentaho 데이터 통합에서 변환을 위해 cassandra nosql 데이터베이스를 사용하고 있습니다. 직접 연결한다 연결을 검사시 cassandra가 pentaho 주전자에서 시간 초과 예외를 제공합니다.

하지만

가 저 초과 예외주고 변환 ..

내가 "request_timeout의" 증가하지만 문제가 여전히 실행되는 동안. 그리고 내 지식에 따라 카산드라 데이터베이스의 데이터는 이러한 문제에 직면하여 증가하고 있습니다.

PDI 도구로 인해 문제가 있습니까? 아니면 cassandra 데이터베이스 자체 때문에입니까?

그리고 어떻게이 문제를 해결할 수 있습니까?

+0

동일한 문제가 있습니다. 필자는 Pentaho를 사용하여 Cassandra에서 데이터를 가져오고 예상대로 테이블이 매일 커집니다. 이 문제는 엄청난 양의 데이터 때문에 발생합니다. 데이터가 많을수록 이러한 오류가 더 많이 발생합니다. 200,000 개의 레지스터가있는 테이블이 있는데 작업을 실행하면 190,000을 한계로 사용하여 TimeoutException이 발생합니다. 한계로 150,000을 사용하면 오류가 없습니다. 누구든지이 문제를 해결할 생각이라면 게시하십시오. – Fabiano

+0

나를 위해 일한 아래 내 대답을 확인하십시오. :) – Fabiano

답변

1

는 cassandra.yaml에서는 기본 번호는 10000 20000과 같은 높은 숫자로 매개 변수를 read_request_timeout_in_ms을 증가해야하고, 거대한 제한을 10 또는 20 열 선택을 위해, 당신은 TimeoutException을 기대할 수 있습니다.

이 값을 늘리면 cassandra가 쿼리 완료를 기다리게됩니다.

나는 이것을 데이터베이스에서 시험해 보았다.

+1

대답 해 주셔서 감사합니다. 나는 답을 쓰는 것을 잊지 않고 오래전에 해결책을 얻었습니다. 어쨌든 저에게도 똑같은 작품을 주셔서 감사합니다 .. \ –

관련 문제