> 文章列表 > Ceph入门到精通- 选择硬件的一般原则

Ceph入门到精通- 选择硬件的一般原则

Ceph入门到精通- 选择硬件的一般原则

第 2 章。选择硬件的一般原则

作为存储管理员,您必须选择适当的硬件来运行生产红帽 Ceph 存储集群。为红帽 Ceph 存储选择硬件时,请查看以下一般原则。这些原则将有助于节省时间,避免常见错误,节省资金并实现更有效的解决方案。

先决条件

  • 红帽 Ceph 存储的计划用途。
  • Linux 系统管理 具有红帽企业 Linux 认证的高级级别。
  • 具有 Ceph 认证的存储管理员。

2.1. 确定性能用例

成功部署 Ceph 的最重要步骤之一是确定适合集群用例和工作负载的性价比概况。为用例选择合适的硬件非常重要。例如,为云存储应用程序选择 IOPS 优化的硬件会不必要地增加硬件成本。然而,在 IOPS 密集型工作负载中为其更具吸引力的价格点选择容量优化的硬件可能会导致不满意的用户抱怨性能缓慢。

Ceph 的主要用例包括:

  • IOPS 优化:IOPS 优化部署适用于云计算操作,例如在 OpenStack 上将 MYSQL 或 MariaDB 实例作为虚拟机运行。IOPS 优化部署需要更高性能的存储,例如 15k RPM SAS 驱动器和单独的 SSD 日志来处理频繁的写入操作。某些高 IOPS 方案使用全闪存存储来提高 IOPS 和总吞吐量
  • 吞吐量优化:吞吐量优化的部署适用于提供大量数据,例如图形、音频和视频内容。吞吐量优化的部署需要具有可接受的总吞吐量特征的网络硬件、控制器和硬盘驱动器。在需要写入性能的情况下,SSD 日志将大幅提高写入性能。
  • 容量优化:容量优化部署适合以尽可能低廉的成本存储大量数据。容量优化部署通常会以性能换取更具吸引力的价格点。例如,容量优化部署通常使用速度较慢且成本较低的 SATA 驱动器和共置日志,而不是使用 SSD 进行日志处理。

本文档提供了适用于这些用例的红帽测试硬件示例。

2.2. 考虑存储密度

硬件规划应包括在多个主机上分发 Ceph 守护程序和其他使用 Ceph 的进程,以便在发生硬件故障时保持高可用性。平衡存储密度注意事项,并在发生硬件故障时重新平衡群集。一个常见的硬件选择错误是在小型集群中使用非常高的存储密度,这可能会在回填和恢复操作期间使网络过载。

2.3. 相同的硬件配置

创建池并定义 CRUSH 层次结构,以便池中的 OSD 硬件相同。

  • 相同的控制器。
  • 相同的驱动器大小。
  • 相同的转速。
  • 相同的寻道时间。
  • 相同的 I/O。
  • 相同的网络吞吐量。
  • 相同的日志配置。

在池中使用相同的硬件可提供一致的性能配置文件,简化预配并简化故障排除。

2.4. 红帽 Ceph 存储的网络注意事项

云存储解决方案的一个重要方面是,由于网络延迟和其他因素,存储集群可能会耗尽 IOPS。此外,由于带宽限制,存储集群可能会在存储集群用完存储容量之前很久就耗尽吞吐量。这意味着网络硬件配置必须支持所选工作负载,以满足性价比要求。

存储管理员希望存储群集尽快恢复。仔细考虑存储集群网络的带宽要求,注意网络链路超额订阅,并将集群内流量与客户端到集群流量隔离开来。还要考虑到,在考虑使用固态磁盘 (SSD)、闪存、NVMe 和其他高性能存储设备时,网络性能变得越来越重要。

Ceph 支持公共网络和存储集群网络。公共网络处理客户端流量以及与 Ceph 监视器的通信。存储集群网络处理 Ceph OSD 检测信号、复制、回填和恢复流量。存储硬件至少应使用单个 10 GB 以太网链路,并且可以添加额外的 10 GB 以太网链路以实现连接和吞吐量。

重要

红帽建议将带宽分配给存储集群网络,使其是公共网络的倍数,使用 作为副本池上倍数的基础。红帽还建议在单独的网卡上运行公共和存储集群网络。osd_pool_default_size

重要

红帽建议在生产环境中对红帽 Ceph 存储部署使用 10 GB 以太网。1 GB 以太网不适合生产存储集群。

如果驱动器发生故障,通过 1 GB 以太网网络复制 1 TB 的数据需要 3 小时,3 TB 需要 9 小时。使用 3 TB 是典型的驱动器配置。相比之下,对于 10 GB 以太网网络,复制时间为 20 分钟和 1 小时。请记住,当 Ceph OSD 发生故障时,存储集群将通过将其包含的数据复制到池中的其他 Ceph OSD 来恢复。

更大的域(如机架)的故障意味着存储集群使用更多的带宽。在构建由多个机架组成的存储集群时(这在大型存储实施中很常见),请考虑在“胖树”设计中利用交换机之间的尽可能多的网络带宽,以获得最佳性能。典型的 10 GB 以太网交换机有 48 个 10 GB 端口和 40 个 40 GB 端口。使用主干上的 10 GB 端口获得最大吞吐量。或者,考虑将带有 QSFP+ 和 SFP+ 电缆的未使用的 40 GB 端口聚合到更多 4 GB 端口中,以连接到其他机架式和主干路由器。此外,请考虑使用 LACP 模式 9000 绑定网络接口。此外,使用最大传输单元 (MTU) 为 <> 的巨型帧,尤其是在后端或群集网络上。

在安装和测试红帽 Ceph 存储集群之前,请验证网络吞吐量。Ceph 中大多数与性能相关的问题通常始于网络问题。简单的网络问题(如扭结或弯曲的 Cat-6 电缆)可能会导致带宽下降。为前端网络使用至少 10 GB 的以太网。对于大型群集,请考虑将 40 GB 以太网用于后端或群集网络。

重要

为了优化网络,红帽建议使用巨型帧以获得更好的每带宽 CPU 比率,以及无阻塞的网络交换机背板。红帽 Ceph 存储要求通信路径中的所有网络设备具有相同的 MTU 值,对于公共网络和集群网络,端到端。在生产中使用红帽 Ceph 存储集群之前,请验证环境中所有主机和网络设备上的 MTU 值是否相同。

2.5. 避免使用 RAID 解决方案

Ceph 可以复制或擦除代码对象。RAID 在块级别复制此功能并减少可用容量。因此,RAID 是不必要的费用。此外,降级的 RAID 将对性能产生负面影响

重要

红帽建议将每个硬盘与 RAID 控制器分开导出为启用了回写缓存的单个卷。

这需要在存储控制器上使用电池供电或非易失性闪存设备。确保电池正常工作非常重要,因为如果控制器上的内存可能因电源故障而丢失,则大多数控制器将禁用回写缓存。定期检查电池并在必要时更换它们,因为它们会随着时间的推移而退化。有关详细信息,请参阅存储控制器供应商的文档。通常,存储控制器供应商提供存储管理实用程序来监视和调整存储控制器配置,而不会造成任何停机。

当使用所有固态硬盘 (SSD) 时,或者对于每个控制器具有大量驱动器的配置,支持在独立驱动器模式下将仅一组驱动器 (JBOD) 与 Ceph 配合使用。例如,60 个驱动器连接到一个控制器。在这种情况下,回写缓存可能会成为 I/O 争用的来源。由于 JBOD 禁用回写缓存,因此在这种情况下它是理想的选择。使用 JBOD 模式的一个优点是可以轻松添加或替换驱动器,然后在物理插入驱动器后立即向操作系统公开驱动器。

2.6. 选择硬件时的常见错误总结

  • 重新利用动力不足的传统硬件以用于 Ceph。
  • 在同一池中使用不同的硬件。
  • 使用 1Gbps 网络而不是 10Gbps 或更高。
  • 忽略设置公共网络和群集网络。
  • 使用 RAID 而不是 JBOD。
  • 按价格选择驱动器,而不考虑性能或吞吐量。
  • 当用例需要 SSD 日志时,在 OSD 数据驱动器上进行日志。
  • 具有吞吐量特征不足的磁盘控制器。

使用本文档中针对不同工作负载的红帽测试配置示例,以避免上述一些硬件选择错误。