Salesforce에서 JSON 데이터를 가져옵니다. 약 10 000 개의 레코드를 가질 수 있지만 그 이상은 없습니다. Api 한계를 피하고 모든 요청에 대해 Salesforce를 치지 않으면 매 시간마다 데이터를 쿼리 한 다음이를 메모리에 저장할 수 있다고 생각했습니다. 분명히 이것은 훨씬 더 빠르며 오류가 발생하기 쉽습니다.노드를 사용하여 메모리에있는 큰 JSON 데이터 세트로 작업하기
JSON 개체에는 약 10 개의 속성이 있고 두 개 또는 세 개의 속성이있는 다른 중첩 JSON 개체가 하나씩 있습니다.
아래와 비슷한 방법으로 레코드를 쿼리합니다.
getUniqueProperty: function (data, property) {
return _.chain(data)
.sortBy(function(item) { return item[property]; })
.pluck(property)
.uniq()
.value();
}
내 질문은 파급 효과가 메모리에 데이터를 저장하고 메모리에 데이터로 작업 무엇을 것
입니까? 분명히 데이터에 대한 과도한 필터링을 실행하여 서버를 차단하고 싶지는 않습니다.
나는 이전에 redis를 사용 해본 적이 없지만 캐싱 데 도움이 될만한 것이 있습니까?
매 시간마다 데이터를 쿼리하고 Mongo와 같은 JSON 응답을 저장하는 것이 가장 좋을까요? 나는 메모리 내에서와 대조적으로 몽고에 대한 모든 질문을 수행 할 것인가? 매 시간 Salesforce에 쿼리하면 데이터베이스를 플러시하고 데이터를 다시 삽입합니다. 메모리에 데이터를 저장
해당 시간 동안 salesforce 데이터가 업데이트된다고 가정하면 모든 업데이트가 다음 업데이트 때까지 유효하지 않습니다. – Andy
데이터가 오래되었다고 걱정하지 않습니다. 그것은 시간대에 대해 구식 일 수 있습니다. 아마도 업데이트 될 것이고 어쨌든 매시간마다 뽑아야 할 필요가있을 것입니다. – TYRONEMICHAEL