많은 양의 Twitter 데이터를 저장하고 있으며 한 번에 데이터 처리를 위해 약 500k 레코드를 검색하려고합니다. 나는 기본 트윗 데이터를 포함하는 TwitterTweet의 몽고 문서를 가지고,하고 다음과 같이 검색하려고 :Mongo 매퍼에서 대규모 데이터 세트를 효율적으로 검색 할 수 있습니까?
weekly_tweets = TwitterTweet.all(:created_at.gt => 1.week.ago, :fields => [:created_at, :text, :from_user])
문제이며,이 시간과 메모리를 많이 차지 -이 더 많이 만들 수있는 방법이있다 확장 가능하고 효율적입니다. 나는 map reduce를 사용하는 것을 생각해 왔지만, 내가하고 싶은 일 (텍스트 처리 및 트윗의 regexp stuff)은 매우 복잡해 보인다.
왜 전화가 더 적습니까? 건너 뛰기 및 제한을 사용하고 한 번에 1000 개를 가져옵니다. –