-
栏目:服务器硬件体系化
-
作者:闲叔不闲
-
关键词:ZFS、Ceph、RAIDZ、RBD、CephFS、RGW、纠删码、SLOG、ARC/L2ARC、BlueStore
摘要
“本地盘还是分布式?”这是一道既技术又业务的题。本篇用架构对比 → 数据保护 → 性能画像 → 硬件与部署建议 → 场景对照表的顺序,把 ZFS 与 Ceph 的边界讲清楚,并送上常见坑清单与入门命令。
目录
-
1. 先想清楚:你要解决什么问题
-
2. 架构速览:ZFS vs Ceph(一图看懂)
-
3. 数据保护与可用性:Mirror/RAIDZ vs 复制/纠删码
-
4. 性能画像:IO 路径、时延、带宽与放大
-
5. 资源与硬件建议:内存/SSD/网络/CPU
-
6. 典型部署模式:单机/超融合/专用集群
-
7. 场景选型对照表
-
8. 常见坑与对策(10 条)
-
9. 实操入门命令(可抄)
-
10. 闲叔小结
1. 先想清楚:你要解决什么问题
-
容量聚合:多台主机的盘要不要变成“一个大池子”?
-
可用性:单机停机是否不可接受?机柜/机房级容灾是否必须?
-
性能侧重:追求低时延(单机本地)还是横向扩展的吞吐/并发(分布式)?
-
成本与复杂度:你是否能承担更多节点/更高网络/更复杂运维?
先回答这四问,基本能把选择范围砍半。
2. 架构速览:ZFS vs Ceph(一图看懂)
ZFS(本地文件系统/卷管理)
graph LR
subgraph Single Host
A[Pool(zpool)] --> V1[VDEV Mirror/RAIDZ]
A --> V2[VDEV Mirror/RAIDZ]
V1 --> FS1[ZFS Filesystem]
V1 --> VOL1[zvol(Block)]
V2 --> FS2[ZFS Filesystem]
end
Cep