상황 저는 Ad_API에서 데이터를 가져와 내 사이트에 표시하는 프로젝트 (CodeIgniter - PHP MySQL) 작업을하고 있습니다. API는 각 단일 항목에 대한 데이터 (~ 1kb)가 많은 JSON과 통신합니다. 페이지 당 약 20 - 30 개의 엔티티를 보여 주므로 서버를 요청한 것입니다 (약 20kb 데이터). 서버는 임의의 방식으로 데이터를 제공하며 데이터는 이 아니며은 식별자를 제공하여 단일 엔터티에 다시 요청할 수 있습니다.랜덤 순서 소스의 데이터로 페이지 매기기
문제 이제 페이지 매김을 사용하여 더 많은 결과 (200 개 이상)를 표시해야합니다. MySQL 데이터베이스라면 쿼리하는 것이 버터가 될 수 있지만 여기서는 위선적입니다. 예 즉 옵션입니다 그러나 다시, 내가 jQuery를을 다음 번에 사용자의 브라우저에있는 모든 200 데이터 엔티티를로드 사용하여 페이지를 매기해야합니다 : 솔루션
- jQuery를 매김에
내 인수
누구나 더 좋은 해결책이 있습니다. 응답하기 전에 상황을주의 깊게 읽으십시오.이 시나리오는 우리가 일상 생활에서 겪는 것과 매우 다릅니다.
자세히 보시기 바랍니다. 우리는 이것들을한다. 1) API로부터 데이터를 꺼내고 그것을 파싱한다. 2) 데이터베이스에 저장 3) 쿼리 DB - 일부 데이터를 가져옵니다. 4) 사용자에게 보내십시오. . . 그다지 확신 할 수는 없지만 데이터베이스에서 몇 초 만에 기가 바이트의 데이터로 끝나고 사이트의 핵심 기능이 어려워 질 것입니다. – ultimate
예. 물론 임시로 저장해야합니다.이 작업은 MySQL 또는 MongoBD를 사용하여 쉽게 수행 할 수 있습니다. – Ramesh