2014-10-20 2 views

답변

0

두 가지 접근법이 있습니다 : (1) 많은 양의 데이터 (큰 데이터)가있는 경우 (2) 데이터가 적은 경우 (2).

두 번째 경우에는 모든 db (관계형 또는 문서 예 : MongoDB 또는 데이터 모델링 요구 사항에 따라 다름)를 사용하여 모든 기존 방식을 따를 수 있습니다.

첫 번째 경우 Kafka를 사용하여 여러 리소스의 데이터를 집계하여 HDFS에 저장할 수 있습니다. 그런 다음 Hadoop 또는 Spark에서 Storm으로 분석 쿼리를 실행할 수 있습니다.

추 신 : Kafka는 RabbitMQ와 유사하지만 큰 데이터의 경우 더 좋습니다.

관련 문제