温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

docker中ceph pool管理的示例分析

发布时间:2021-11-19 11:39:30 来源:亿速云 阅读:364 作者:小新 栏目:开发技术

这篇文章给大家分享的是有关docker中ceph pool管理的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

    可以将 PG 看作⼀个逻辑容器,这个容器里包含多个对象,  pool-pg-osd-disk

    建议:少于 5 个 osds时,设置128个pg
              5-10osds,设置512个pg。
             10-50 osds,设置1024个pg。

docker中ceph pool管理的示例分析

查看我们有哪些pool:

[root@k8s-node3 ~]# ceph osd pool ls
rbd

查看rbd这个pool里面有几个pg:

[root@k8s-node3 ~]# ceph osd pool get rbd pg_num
pg_num: 64

 修改pg个数

[root@k8s-node3 ~]# ceph osd pool set rbd pg_num 128
set pool 0 pg_num to 128

    CRUSH maps CRUSH 是允许 Ceph 在没有性能瓶颈的情况下扩展的重要组成部分,不受可扩展性的限制,并且没有单点故障。 CRUSH 映射将群集的物理拓扑结构提供给CRUSH 算法,以确定应存储对象及其副本的数据的位置。

查看pool类型

[root@k8s-node3 ~]# ceph osd crush rule list
[
    "replicated_ruleset"
]

    类型包含两种:和erasure,一个是复制,另⼀个是擦除池。

[root@k8s-node3 ~]# ceph osd pool get-quota rbd ##rbd是Pool的名字
quotas for pool 'rbd':
  max objects: N/A
  max bytes  : N/A

设置pool的配额

    删除⼀个池的操作

ceph osd pool delete vm vm --yes-i-really-really-mean-it #vm是pool的名字

感谢各位的阅读!关于“docker中ceph pool管理的示例分析”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI