나는 지난 며칠 동안 Casandra를 사용하기 시작했으며 여기에 내가하려는 일이 있습니다.카산드라 읽기/쓰기 성능 - 높은 CPU
사용자 프로필을 유지하는 약 2 백만 개 이상의 개체가 있습니다. 나는이 객체들을 json으로 변환하고 압축하여 blob 컬럼에 저장한다. 평균 압축 json 크기는 약 10KB입니다. 내 표는 카산드라에서 보는 방법이있다
테이블 :
dev.userprofile (uid varchar primary key, profile blob);
선택 쿼리 : 여기서 UID = ''dev.userprofile에서 선택 프로필;
업데이트 쿼리 :
update dev.userprofile set profile='<bytebuffer>' where uid = '<uid>'
매 시간마다, 나는 내 사용자 프로필 개체에 적용되는 큐에서 이벤트를 얻을. 각 이벤트는 하나의 userprofile 오브젝트에 해당합니다. 이러한 이벤트가 약 1 백만 가지가 발생하므로 짧은 시간 내에 1M 개의 userprofile 객체를 업데이트해야합니다. 즉, 응용 프로그램의 객체를 업데이트하고 json을 압축하고 cassandra blob을 업데이트해야합니다. 내가 선호하는 모든 1 백만 사용자 프로필 개체를 몇 분 안에 업데이트해야합니다. 그러나 나는 그것이 오래 걸리는 것을 알아 차린다.
내 응용 프로그램을 실행하는 동안 평균 약 400 개의 프로파일/초를 업데이트 할 수 있습니다. 나는 이미 CPU iowait를 많이 보았습니다 - 70 % +는 cassandra 인스턴스에 있습니다. 또한 부하는 처음에는 약 8 (vcpu 인스턴스 8)에서 약 16 정도로 매우 높아지고 약 4로 떨어집니다.
무엇이 잘못 되었나요? 왜냐하면 크기가 2KB 인 작은 개체를 업데이트 할 때마다 cassandra 작업/초가 훨씬 빠르다는 것을 알게되었습니다. 나는 대략 3000 Ops/sec를 얻을 수 있었다. 성능 향상 방법에 대한 의견이 있으십니까?
<dependency>
<groupId>com.datastax.cassandra</groupId>
<artifactId>cassandra-driver-core</artifactId>
<version>3.1.0</version>
</dependency>
<dependency>
<groupId>com.datastax.cassandra</groupId>
<artifactId>cassandra-driver-extras</artifactId>
<version>3.1.0</version>
</dependency>
난 그냥 테스트를 위해 m4.2xlarge의 AWS 인스턴스 내에서 카산드라 설정의 한 노드가
Single node Cassandra instance
m4.2xlarge aws ec2
500 GB General Purpose (SSD)
IOPS - 1500/10000
nodetool이 cfstats 출력
Keyspace: dev
Read Count: 688795
Read Latency: 27.280683695439137 ms.
Write Count: 688780
Write Latency: 0.010008401811899301 ms.
Pending Flushes: 0
Table: userprofile
SSTable count: 9
Space used (live): 32.16 GB
Space used (total): 32.16 GB
Space used by snapshots (total): 0 bytes
Off heap memory used (total): 13.56 MB
SSTable Compression Ratio: 0.9984539538554672
Number of keys (estimate): 2215817
Memtable cell count: 38686
Memtable data size: 105.72 MB
Memtable off heap memory used: 0 bytes
Memtable switch count: 6
Local read count: 688807
Local read latency: 29.879 ms
Local write count: 688790
Local write latency: 0.012 ms
Pending flushes: 0
Bloom filter false positives: 47
Bloom filter false ratio: 0.00003
Bloom filter space used: 7.5 MB
Bloom filter off heap memory used: 7.5 MB
Index summary off heap memory used: 2.07 MB
Compression metadata off heap memory used: 3.99 MB
Compacted partition minimum bytes: 216 bytes
Compacted partition maximum bytes: 370.14 KB
Compacted partition mean bytes: 5.82 KB
Average live cells per slice (last five minutes): 1.0
Maximum live cells per slice (last five minutes): 1
Average tombstones per slice (last five minutes): 1.0
Maximum tombstones per slice (last five minutes): 1
nodetool 출력
Percentile SSTables Write Latency Read Latency Partition Size Cell Count
(micros) (micros) (bytes)
50% 3.00 9.89 2816.16 4768 2
75% 3.00 11.86 43388.63 8239 2
95% 4.00 14.24 129557.75 14237 2
98% 4.00 20.50 155469.30 17084 2
99% 4.00 29.52 186563.16 20501 2
Min 0.00 1.92 61.22 216 2
Max 5.00 74975.55 4139110.98 379022 2
cfhistograms
Dstat 출력
---load-avg--- --io/total- ---procs--- ------memory-usage----- ---paging-- -dsk/total- ---system-- ----total-cpu-usage---- -net/total-
1m 5m 15m | read writ|run blk new| used buff cach free| in out | read writ| int csw |usr sys idl wai hiq siq| recv send
12.8 13.9 10.6|1460 31.1 |1.0 14 0.2|9.98G 892k 21.2G 234M| 0 0 | 119M 3291k| 63k 68k| 1 1 26 72 0 0|3366k 3338k
13.2 14.0 10.7|1458 28.4 |1.1 13 1.5|9.97G 884k 21.2G 226M| 0 0 | 119M 3278k| 61k 68k| 2 1 28 69 0 0|3396k 3349k
12.7 13.8 10.7|1477 27.6 |0.9 11 1.1|9.97G 884k 21.2G 237M| 0 0 | 119M 3321k| 69k 72k| 2 1 31 65 0 0|3653k 3605k
12.0 13.7 10.7|1474 27.4 |1.1 8.7 0.3|9.96G 888k 21.2G 236M| 0 0 | 119M 3287k| 71k 75k| 2 1 36 61 0 0|3807k 3768k
11.8 13.6 10.7|1492 53.7 |1.6 12 1.2|9.95G 884k 21.2G 228M| 0 0 | 119M 6574k| 73k 75k| 2 2 32 65 0 0|3888k 3829k
편집
이 sstables에 LeveledCompactionStrategy & 장애인 압축 전환, 나는 큰 향상을 볼 수 없습니다 :
프로파일 개선의 비트가 발생했습니다/초 업데이트 됨. 그것의 지금 550-600 profiles/sec. 하지만 CPU 스파이크는 iowait입니다.
gcstats
Interval (ms) Max GC Elapsed (ms)Total GC Elapsed (ms)Stdev GC Elapsed (ms) GC Reclaimed (MB) Collections Direct Memory Bytes
755960 83 3449 8 73179796264 107 -1
dstats
---load-avg--- --io/total- ---procs--- ------memory-usage----- ---paging-- -dsk/total- ---system-- ----total-cpu-usage---- -net/total-
1m 5m 15m | read writ|run blk new| used buff cach free| in out | read writ| int csw |usr sys idl wai hiq siq| recv send
7.02 8.34 7.33| 220 16.6 |0.0 0 1.1|10.0G 756k 21.2G 246M| 0 0 | 13M 1862k| 11k 13k| 1 0 94 5 0 0| 0 0
6.18 8.12 7.27|2674 29.7 |1.2 1.5 1.9|10.0G 760k 21.2G 210M| 0 0 | 119M 3275k| 69k 70k| 3 2 83 12 0 0|3906k 3894k
5.89 8.00 7.24|2455 314 |0.6 5.7 0|10.0G 760k 21.2G 225M| 0 0 | 111M 39M| 68k 69k| 3 2 51 44 0 0|3555k 3528k
5.21 7.78 7.18|2864 27.2 |2.6 3.2 1.4|10.0G 756k 21.2G 266M| 0 0 | 127M 3284k| 80k 76k| 3 2 57 38 0 0|4247k 4224k
4.80 7.61 7.13|2485 288 |0.1 12 1.4|10.0G 756k 21.2G 235M| 0 0 | 113M 36M| 73k 73k| 2 2 36 59 0 0|3664k 3646k
5.00 7.55 7.12|2576 30.5 |1.0 4.6 0|10.0G 760k 21.2G 239M| 0 0 | 125M 3297k| 71k 70k| 2 1 53 43 0 0|3884k 3849k
5.64 7.64 7.15|1873 174 |0.9 13 1.6|10.0G 752k 21.2G 237M| 0 0 | 119M 21M| 62k 66k| 3 1 27 69 0 0|3107k 3081k
당신은 CPU 스파이크를 알 수 있습니다. 내가 부하 더욱 증가하기 전에
내 주요 관심사는 iowait가된다. 이 문제를 일으키는 것을 찾아야하는 구체적인 것은 무엇입니까? 600 프로필/초 (즉, 600 개의 읽기 + 쓰기)가 저에게 낮은 것처럼 보입니다.
항목을 업데이트 할 때 항목을 읽고 압축을 풀고 변경된 부분을 업데이트 한 다음 레코드를 압축하고 다시 저장해야합니다. 이 작업은 항목의 크기에 따라 크게 달라집니다. 속도가 항목의 크기에 의존하지 않으면 잘못된 것이 있습니다. –
업데이트에 대한 쓰기 전에 읽기가 없습니다. –
업데이트시 쓰기 전에 읽는 데 사용하는 select 쿼리가 추가되었습니다. – plspl