대규모 데이터 세트로 도쿄 캐비닛/도쿄 폭군을 성공적으로 사용한 사람이 있습니까? Wikipedia 데이터 소스의 하위 그래프를 업로드하려고합니다. 약 3 천만 개의 레코드를 치고 나면 기하 급수적으로 느려집니다. 이것은 HDB 및 BDB 데이터베이스 모두에서 발생합니다. 나는 bnum을 약간의 속도로 HDB 케이스의 예상 레코드 수의 2-4 배로 조정했다. 또한 xmsiz를 1GB로 설정했지만 궁극적으로 벽에 부딪 혔습니다.왜 도쿄 폭군은 bnum을 조정 한 후에도 기하 급수적으로 천천히 감소합니까?
도쿄 폭군은 기본적으로 메모리 데이터베이스에있는 것으로 보이며 xmsiz 또는 RAM을 초과하면 간신히 사용할 수있는 데이터베이스를 얻게됩니다. 다른 누구도 전에이 문제가 발생 했습니까? 당신이 그것을 해결할 수 있었습니까?
"이 사람들은 전에이 문제가 발생했습니다."분명히 http://bjclark.me/2009/08/04/nosql-if-only-it-was-that-easy/ –
링크가 더 이상 작동하지 않습니다. , 이제 http://mod.erni.st/2009/08/nosql-if-only-it-was-that-easy/ –