(3-5 번에게 100-200 쓰기의 무리에서 하루 실패)/"큐 너무 깊이"오류 발생 aerospike 클라이언트Aerospike "장치 과부하"일반 얻기
에서 "장치 과부하"오류는 3 노드 되세요 mapoperations의 중요한 사용과 c3.4x 노드의 클러스터. 쓰기 블록 크기 1MB max-write-cache를 1 일부터 64M에서 256M으로 늘렸지 만 이러한 오류는 거의 발생하지 않습니다. 장치 과부하 오류가 2 노드에서 발생하며 세 번째 오류가 한 번도 발생하지 않습니다 마디.
또한, 문제가 부하가 피크에 있으며 문제가 부하가 낮을 때 동안 발생한 여전히 문제가
또 다른를 발생하지 않은 경우 인스턴스가로로드 관련이있는 것으로 보이는하지 않는 것이 관찰된다 관찰 : 우리는 단일 네임 스페이스를 위해 각 노드에 두 개의 장치를 가지고 있습니다. 성능이 우수한 노드의 경우 쓰기로드가 장치간에 균일하게 분산됩니다. 그러나 다른 노드에서는 동일하지 않습니다. 나는 다음과 같은 로그에서이 판단하고 있습니다 :
노드 10.0.23.95 (장치에 고르지 쓰기를) 2016년 10월 25일 그리니치 표준시 07시 48분 48초 : INFO (drv_ssd) : (drv_ssd.c : 2093) {유저 데이터}/dev에/xvdb : used-bytes 43749001344 free-wblocks 90643 쓰기 -q 0 쓰기 (20749488,16.4) defrag-q 0 조각 모음 읽기 (12761426,11.6) 조각 모음 쓰기 (756967,0.9) Oct 25 2016 07:48 : 488 GMT : INFO (drv_ssd) : (drv_ssd.c : 2093) {userdata}/dev/xvdf : used-bytes 43788740224 자유 wblock 91129 쓰기 -q 0 쓰기 (7088645,8.7) defrag- 읽기 (6659887,7.8) 조각 모음 쓰기 (403406,0.4)
노드 10.0.23.154 (장치에 쓰기조차도)(devv_ssd.c : 2093) {userdata}/dev/xvdf : used-bytes 44678011008 free-wblocks 89862 write-q 0 write (6702031,8.6) (drv_ssd.c : 2093) {userdata}/dev/q/devrag -q 0 defrag-read (6311760,7.9) defrag-write (384025,0.3) Oct 25 2016 07:52:53 GMT : xvdb : 44664046720 무료-wblocks 89790 쓰기-Q 0 쓰기 (6928185,7.4) 조각 모음-q는 0 조각 모음 읽기 (6418616,7.0) 조각 모음 쓰기 (393286,0.3)
언급 된 인스턴스가 Aerospike 인증 SSD를 사용하지 않고있을 수 있습니까? – Aaron
우리는 스토리지를 위해 EBS가 아닌 인스턴스 저장소를 사용하고 있습니까?노드는 EC2의 Aerospike ATI에서 만들었습니다 – ArpitW
안녕 Meher 주목할만한 저의 기원 포스트에 좀 더 많은 관찰을 추가했습니다. 그것은 2 노드에 장치의 로그 통계입니다 – ArpitW