저는 기본적으로 매우 큰 데이터베이스가 있어야하는보고 도구 인 새 프로젝트를 시작하려고합니다.매우 큰 데이터를 처리하는 방법은 무엇입니까?
테이블 수가 많지 (< 200), 대부분의 데이터 (80 %)가 20 개의 테이블에 포함되며 모든 데이터는 거의 삽입/읽기 전용 (업데이트 없음)입니다.
한 테이블의 예상 데이터 양은 분당 240,000 레코드로 증가 할 것이며, 다양한 보고서를 작성하려면 최소한 1 년에서 3 년간 유지해야하며 관리자가 온라인으로 볼 수 있습니다 .
그 큰 데이터베이스와 첫번째 손 경험이 없어, 그래서 DB는이 상황에서 최선의 선택을하는이 사람을 부탁 해요. 나는 오라클이 안전한 내기이지만, 누군가 hadoopdb 나 구글의 큰 테이블 같은 경험이 없다면 더 관심이있다. 나를 안내하십시오. 사전
당신이 * 정말 * 모든 데이터를 보관해야합니까 예를 들어, 나는 Acunu 카산드라의 자신의 맛에 삽입 분석에 무엇을하고 있는지보고 싶은데? 어떻게 든 집계 할 수 있습니까? 원시 데이터를 버킷에 병합 하시겠습니까? 초당 4000 레코드는 약간 미친 짓이다. 기록이 얼마나 큽니까? –
계산기를 곧바로 사용하는 사람이라면 누구나 3 년 후 3,784,320,000 건의 기록을 남길 것입니다. < – Corbin
답장을 보내 주셔서 감사합니다. 내 프로젝트가보고 도구이므로보고 싶으면 1 년 이상보고하면 그 데이터를 3 년 이상 보관해야합니다. 나는 데이터를 집계하지만 모든 보고서의 끝에서 집계 된 형식이 아닌 단일 행 형식으로 데이터를 표시합니다. – jenitshah