裸盘 io
1 | sync && echo 3 | sudo tee /proc/sys/vm/drop_caches |
结果
读速率 | 写速率 | |
---|---|---|
1 | 1.7 GB/s | 1.5 GB/s |
2 | 1.7 GB/s | 1.5 GB/s |
3 | 1.7 GB/s | 1.5 GB/s |
4 | 1.7 GB/s | 1.5 GB/s |
5 | 1.7 GB/s | 1.5 GB/s |
avg | 1.7 GB/s | 1.5GB/s |
1 | ps -e -o %cpu,rss,cmd | grep xxx |
spdk nvme-of
1 | 进入spdk目录 |
1 | sync && echo 3 | sudo tee /proc/sys/vm/drop_caches |
结果
读速率 | 写速率 | |
---|---|---|
1 | 112 MB/s | 97.4MB/s |
2 | 112 MB/s | 103 MB/s |
3 | 112 MB/s | 97.1MB/s |
4 | 112 MB/s | 98.8MB/s |
5 | 112 MB/s | 100 MB/s |
avg | 112 MB/s | 99.26 MB/s |
使用iperf3工具测试两端的tcp传输速率 约为 114MB/s
1 | Connecting to host 192.168.12.85, port 5201 |
结论tcp带宽已占满,瓶颈在于网络带宽
单台机器上的结果
读速率 | 写速率 | 写内存占用 | 写cpu占用 | 读内存占用 | 读cpu占用 | |
---|---|---|---|---|---|---|
1 | 1.6 GB/s | 1.5 GB/s | ||||
2 | 1.6 GB/s | 1.5 GB/s | ||||
3 | 1.6 GB/s | 1.5 GB/s | ||||
4 | 1.6 GB/s | 1.5 GB/s | ||||
5 | 1.6 GB/s | 1.5 GB/s | ||||
avg | 1.6 GB/s | 1.5 GB/s | 12832KB | 99.8% | 12832KB | 99.8% |
ceph
1 | 每个节点设置时钟同步 |
1 | sync && echo 3 | sudo tee /proc/sys/vm/drop_caches |
读写速率
读速率 | 写速率 | |
---|---|---|
1 | 143 MB/s | 65.3 MB/s |
2 | 144 MB/s | 70.7 MB/s |
3 | 144 MB/s | 69.7 MB/s |
4 | 144 MB/s | 72.5 MB/s |
5 | 144 MB/s | 73.3 MB/s |
avg | 143.8 MB/s | 70.3MB/s |
资源占用情况
ps -e -o %cpu,rss,cmd | grep ceph
空载cpu | 空载内存 | 读cpu | 读内存 | 写cpu | 写内存 | |
---|---|---|---|---|---|---|
ceph-mon | 0.4% | 88096 | 0.4% | 138132 | 0.4% | 110284 |
ceph-mgr | 0.2% | 197760 | 0.2% | 199076 | 0.2% | 198812 |
ceph-osd | 0.3% | 69956 | 3.4% | 594784 | 3.1% | 353572 |
后面发现似乎好像和空载负载并没有关系 一直维持在 cpu 0.4% 0.2% 3.7% 内存也是几乎不变 的水平了
合理推测应该是和数据量有关系 数据存的越多越杂才会有变化
只对一个RBD块设备反复做dd可能就是会没什么变化 但是 dd之前和dd之后的变化 倒是可以参考出来