离线安装ceph集群(ceph-13.2.10)

news2025/7/20 6:33:19

记录:332

场景:在CentOS 7.9操作系统上,使用ceph的rpm-mimic的ceph-13.2.10安装ceph集群。应用ceph对象存储(ceph object store);应用ceph块设备(ceph block device);应用ceph文件系统(ceph file system)。

版本:

操作系统:CentOS 7.9

ceph版本:ceph-13.2.10

名词:

Ceph:一个开源的分布式存储系统。

Ceph: Ceph uniquely delivers object, block, and file storage in one unified system.

Monitors: A Ceph Monitor (ceph-mon) maintains maps of the cluster state, including the monitor map, manager map, the OSD map, the MDS map, and the CRUSH map.

Managers: A Ceph Manager daemon (ceph-mgr) is responsible for keeping track of runtime metrics and the current state of the Ceph cluster, including storage utilization, current performance metrics, and system load.

Ceph OSDs: An Object Storage Daemon (Ceph OSD, ceph-osd) stores data, handles data replication, recovery, rebalancing, and provides some monitoring information to Ceph Monitors and Managers by checking other Ceph OSD Daemons for a heartbeat.

MDSs: A Ceph Metadata Server (MDS, ceph-mds) stores metadata on behalf of the Ceph File System (i.e., Ceph Block Devices and Ceph Object Storage do not use MDS).

来源官网:https://docs.ceph.com/en/quincy/start/intro/

1.主机规划

1.1主机磁盘规划

(1)安装ceph集群节点主机规划

主节点app161;内存:4GB;硬盘(SCSI):50GB;硬盘2(SCSI):40GB。

从节点app162;内存:4GB;硬盘(SCSI):50GB;硬盘2(SCSI):40GB。

从节点app163;内存:4GB;硬盘(SCSI):50GB;硬盘2(SCSI):40GB。

要求:主机app161、app162、app163都挂载一个干净硬盘,该硬盘是专门给集群挂载ceph文件系统使用。

(2)安装ceph客户端挂载ceph文件系统节点主机

从节点app164;内存:4GB;硬盘(SCSI):50GB。

从节点app165;内存:4GB;硬盘(SCSI):50GB。

1.2主机软件规划

ceph集群和ceph客户端的主机、IP以及组件分布规划。

2.下载安装包

(1)在公网下载ceph的rpm包

主机:可连接公网的机器。

下载rpm包:使用reposync命令下载。

下载地址:https://mirrors.aliyun.com/ceph

ceph-13.2.10版本noarch包:https://mirrors.aliyun.com/ceph/rpm-mimic/el7/noarch

ceph-13.2.10版本x86_64包:https://mirrors.aliyun.com/ceph/rpm-mimic/el7/x86_64

(2)已下载的rpm包拷贝到内网机器

(3)在内网制作本地ceph镜像仓库

主机:内网主机。

制作本地镜像:使用createrepo命令。

发布本地镜像:使用httpd发布。

(4)满足使用yum命令安装ceph需求

确认本地镜像仓库包含版本:ceph-13.2.10。

查看命令:yum list --showduplicates ceph-13.2.10

(5)搭建本地镜像仓库参考博文

参考博文:https://blog.csdn.net/zhangbeizhen18/article/details/128010070

3.主机基础环境

(1)JDK环境

查看版本:java -version

打印信息:java version "1.8.0_281"

(2)设置主机名称

B161机器:hostnamectl  set-hostname  app161

B162机器:hostnamectl  set-hostname  app162

B163机器:hostnamectl  set-hostname  app163

B164机器:hostnamectl  set-hostname  app164

B165机器:hostnamectl  set-hostname  app165

(3)hosts文件

修改命令:vi /etc/hosts

修改内容:

192.168.19.161  app161
192.168.19.162  app162
192.168.19.163  app163
192.168.19.164  app164
192.168.19.165  app165

(4)关闭SELinux

修改指令:vi /etc/selinux/config

修改内容:把SELINUX=enforcing改成SELINUX=disabled

(5)关闭防火墙

设置开机禁用防火墙:systemctl stop firewalld

(6)设置swappiness

设置swappiness命令:echo vm.swappiness = 10 >> /etc/sysctl.conf

(7)关闭透明大页面

编辑指令:vi /etc/rc.d/rc.local

if test -f /sys/kernel/mm/transparent_hugepage/enabled;
then echo never > /sys/kernel/mm/transparent_hugepage/enabled
fi
if test -f /sys/kernel/mm/transparent_hugepage/defrag;
then echo never > /sys/kernel/mm/transparent_hugepage/defrag
fi

添加可执行命令:chmod +x /etc/rc.d/rc.local

(8)设置最大文件句柄数

修改指令:vi /etc/security/limits.conf

修改内容:

* soft nofile 102400

* hard nofile 102400

(9)配置免密登录

公钥和秘钥生成指令:ssh-keygen -t rsa

拷贝公钥到目标主机:ssh-copy-id app162

验证免密登录:ssh root@app162

(10)配置ntp时间同步服务器

查看ntp状态命令:ntpstat

(11)配置本地yum源镜像仓库

查看仓库中ceph包:yum list --showduplicates ceph

(12)其它工具

安装命令:yum install -y net-tools.x86_64 yum-utils

安装命令:yum install -y python-setuptools

安装命令:yum install -y perl

4.ceph集群安装软件说明

ceph集群由ceph、mon、mgr、osd、rgw等模块组成,需逐个模块创建,才能完成部署。

(1)主从节点安装软件包说明

在主节点app161安装ceph-deploy、ceph、ceph-radosgw软件包。

在从节点app162、app163安装ceph、ceph-radosgw软件包。

(2)主节点使用ceph-deploy说明

在主节点使用ceph-deploy命令,完成ceph集群的ceph、mon、mgr、osd、rgw等模块创建和部署。

5.主节点安装ceph

主机app161是主节点,ceph的组件:mon、mgr、osd、rgw创建集群等操作都在主节点操作。

(1)安装ceph-deploy和ceph

安装命令:yum install -y ceph-deploy ceph-13.2.10

(2)安装ceph-radosgw

安装命令:yum install -y ceph-radosgw-13.2.10

(3)安装完成后目录和文件说明

配置文件目录:/etc/ceph/

日志目录:/var/log/ceph

查看ceph:ll /usr/bin/ | grep ceph

查看radosgw:ll /usr/bin/ | grep radosgw

6.从节点安装ceph

主机app162和app163是从节点。

(1)安装ceph

安装命令:yum install -y ceph-13.2.10

(2)安装ceph-radosgw

安装命令:yum install -y ceph-radosgw-13.2.10

(3)安装完成后目录和文件说明

配置文件目录:/etc/ceph/

日志目录:/var/log/ceph

查看ceph:ll /usr/bin/ | grep ceph

查看radosgw:ll /usr/bin/ | grep radosgw

7.创建ceph的mon模块

在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

(1)创建ceph集群

命令:ceph-deploy new app161 app162 app163

解析:使用ceph-deploy new命令创建一个集群,并生成集群配置文件CLUSTER.conf。在/etc/ceph目录下,生成的配置文件:ceph.conf、ceph-deploy-ceph.log、ceph.mon.keyring、rbdmap。

(2)创建并初始化mon模块

命令:ceph-deploy mon create-initial

解析:在ceph集群中创建并初始mon,创建Ceph的mon守护进程管理器。

在主节点/etc/ceph下生成并写配置文件:ceph.bootstrap-mds.keyring、ceph.bootstrap-mgr.keyring、ceph.bootstrap-osd.keyring、ceph.bootstrap-rgw.keyring、ceph.client.admin.keyring、ceph.conf、ceph-deploy-ceph.log、ceph.mon.keyring、rbdmap。

在从节点/etc/ceph下生成并写配置文件:ceph.conf、rbdmap、tmp5mSKU7。

(3)查看集群状态

命令:ceph -s

解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

8.创建ceph的osd模块

在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

(1)确认每个节点挂载的磁盘

主节点app161磁盘:/dev/sdb

从节点app162磁盘:/dev/sdb

从节点app163磁盘:/dev/sdb

查看命令:ceph-deploy disk list app161

解析:使用ceph-deploy disk list查主机磁盘。

(2)格式化每个节点挂载磁盘

app161节点硬盘格式化:ceph-deploy disk zap app161 /dev/sdb

app162节点硬盘格式化:ceph-deploy disk zap app162 /dev/sdb

app163节点硬盘格式化:ceph-deploy disk zap app163 /dev/sdb

解析:格式化需挂载的磁盘。

(3)创建osd并挂载到磁盘

将每个主机的/dev/sdb磁盘挂载为osd盘。

app161节点:ceph-deploy osd create --data /dev/sdb app161

app162节点:ceph-deploy osd create --data /dev/sdb app162

app163节点:ceph-deploy osd create --data /dev/sdb app163

(3)查看集群状态

命令:ceph -s

解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

9.创建ceph的mgr模块

在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

9.1创建mgr模块

(1)创建mgr

命令:ceph-deploy mgr create app161 app162 app163

解析:创建mgr,收集ceph集群状态,提供可视化界面用于监控集群。

(2)查看集群状态

命令:ceph -s

解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

 9.2配置dashboard

(1)开启dashboard功能

命令:ceph mgr module enable dashboard

解析:开启dashboard功能。

(2)创建证书

命令:ceph dashboard create-self-signed-cert

解析:创建证书。

(3)配置web登录的用户名和密码

命令:ceph dashboard set-login-credentials hangzhou demo123456

解析:在web页面登录的用户名和口令。

(4)修改dashboard默认端口

配置端口,默认端口是8443,修改为18443,修改后需重启mgr,修改端口才生效。

修改端口命令:ceph config set mgr mgr/dashboard/server_port 18443

重启mgr命令:systemctl restart ceph-mgr.target

(5)查看发布服务地址

命令:ceph mgr services

解析:

(6)登录ceph的dashboard

默认登录地址:https://192.168.19.161:8443/

修改后登录地址:

https://192.168.19.161:18443/

https://192.168.19.162:18443/

https://192.168.19.163:18443/

执行ceph -s查看,哪个可用。

用户名/口令:hangzhou/demo123456

10.创建ceph的mds模块

在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

(1)创建mds

命令:ceph-deploy mds create app161 app162 app163

解析:创建mds,使用cephfs文件系统服务时,需安装mds。作用:数据元服务。

(2)查看集群状态

命令:ceph -s

解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

11.创建ceph的rgw模块

在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

(1)创建rgw

命令:ceph-deploy rgw create app161 app162 app163

解析:创建rgw,使用对象网关。

(2)查看集群状态

命令:ceph -s

解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

12.启动和停止ceph组件

在主节点app161操作,操作目录:cd /etc/ceph。

12.1启动服务

systemctl start ceph.target

systemctl start ceph-mds.target

systemctl start ceph-mgr.target

systemctl start ceph-mon.target

systemctl start ceph-osd.target

systemctl start ceph-radosgw.target

12.2停止服务

systemctl stop ceph.target

systemctl stop ceph-mds.target

systemctl stop ceph-mgr.target

systemctl stop ceph-mon.target

systemctl stop ceph-osd.target

systemctl stop ceph-radosgw.target

12.3重启服务

systemctl restart ceph.target

systemctl restart ceph-mds.target

systemctl restart ceph-mgr.target

systemctl restart ceph-mon.target

systemctl restart ceph-osd.target

systemctl restart ceph-radosgw.target

13.操作存储池pool

在主节点app161操作,操作目录:cd /etc/ceph。

存储池作用是存放数据和元数据。默认三个副本。

13.1创建存储池pool

(1)创建pool

命令:ceph osd pool create hz_data 16

解析:创建一个存储池,名称hz_data,分配16个pg。

(2)查看pool的pg数量

命令:ceph osd pool get hz_data pg_num

解析:查看pool的pg_num数量。

(3)指定pool的pg数量

命令:ceph osd pool set hz_data pg_num 18

解析:设置pool的pg_num数量。

(4)查看集群状态

命令:ceph -s

解析:查看集群状态。包括cluster、services、data三个模块。

13.2删除存储池pool

(1)设置允许删除pool

修改文件:vi /etc/ceph/ceph.conf

修改内容:mon_allow_pool_delete=true

分发配置到每个主机:ceph-deploy --overwrite-conf admin app161 app162 app163

重启ceph-mon命令(3个主机):systemctl restart ceph-mon.target

(2)删除pool

命令:ceph osd pool delete hz_data hz_data --yes-i-really-really-mean-it

解析:删除pool时,pool的名称需要传两次。

(4)查看集群状态

命令:ceph -s

解析:查看集群状态。包括cluster、services、data三个模块。

14.操作ceph文件系统

使用ceph文件系统存储,需部署mds。

14.1创建ceph文件系统

在主节点app161操作,操作目录:cd /etc/ceph。

(1)查看mds确定已安装mds

查看命令:ceph mds stat

解析:查看mds状态,如果没安装mds,那么需安装mds。

安装命令:ceph-deploy  mds create app161 app162 app163

(2)创建两个存储池

一个ceph文件系统至少要两个RADOS存储池,一个用于存放数据,一个用于存放元数据。

创建存放数据pool:ceph osd pool create xihu_data 16

创建存放元数据pool:ceph osd pool create xihu_metadata 8

解析:创建存储池xihu_data和xihu_metadata。

(3)创建ceph文件系统

命令:ceph fs new hangzhoufs xihu_metadata xihu_data

解析:使用ceph fs new创建ceph文件系统;文件系统名称:hangzhoufs;存储池xihu_data和xihu_metadata。

(4)查ceph文件系统

命令:ceph fs ls

解析:查看ceph文件系统,打印文件系统名称和存储池。

打印信息:name: hangzhoufs, metadata pool: xihu_metadata, data pools: [xihu_data ]

(5)查看集群状态

命令:ceph -s

解析:查看集群状态。包括cluster、services、data三个模块。mds下已经看到hangzhoufs文件系统。

 

14.2开启客户端认证

在主节点app161操作,操作目录:cd /etc/ceph。

(1)确认ceph.conf文件

文件:/etc/ceph/ceph.conf

内容:auth_client_required = cephx

(2)确认客户端秘钥

秘钥文件名称:/etc/ceph/ceph.client.admin.keyring

秘钥内容:

[client.admin]
key = AQDtioBjVwefMBAAu0/oJPK2khWK+juNOQkyZw==
caps mds = "allow *"
caps mgr = "allow *"
caps mon = "allow *"
caps osd = "allow *"

14.3客户端挂载ceph文件系统

在客户端节app166操作,操作目录:cd /etc/ceph。

挂载ceph文件系统目的就是把ceph文件系统挂载到客户端app166中。

14.3.1安装客户端

安装客户端:yum install -y ceph-common

14.3.2配置户端

(1)创建配置目录

命令:mkdir -p /etc/ceph

解析:如果没有则创建目录。

(2)生成配置文件

配置内容取自主节点app161的/etc/ceph/ceph.client.admin.keyring中的key值。

方式一:

创建文件:vi client-admin.key

添加内容:AQDtioBjVwefMBAAu0/oJPK2khWK+juNOQkyZw==

方式二:

命令:echo 'AQDtioBjVwefMBAAu0/oJPK2khWK+juNOQkyZw==' >>client-admin.key

(3)创建挂载文件系统的目录

命令:mkdir /hangzhoufs_data

解析:此目录就是为了把远程文件系统挂载到本地使用。

(4)挂载文件系统

挂载ceph文件系统命令:mount.ceph  192.168.19.161:6789:/ /hangzhoufs_data/ -o name=admin,secretfile=/etc/ceph/client-admin.key

解析:mount.ceph,挂载命令。192.168.19.161:6789:/,指定主机和端口,其中端口6789是mon的端口,/斜杆表示从文件系统根目录。/hangzhoufs_data/,表示挂载到本地的目录。-o表示指定参数选项。name=admin,表示用户名,实际就是ceph.client.admin.keyring文件中的admin。secretfile,表示秘钥文件。

(5)查看客户端挂载文件系统

命令:df -h

解析:挂载后:192.168.19.161:6789:/ 37G 0 37G 0% /hangzhoufs_data;从磁盘挂载信息看到已经挂载成功。

(6)在客户端操作挂载目录

目录:cd /hangzhoufs_data

14.4删除ceph文件系统

14.4.1删除客户端数据

在客户端节app166操作,操作目录:cd /hangzhoufs_data。

(1)删除数据

命令:rm -rf /hangzhoufs_data/*

解析:删除已经挂载目录数据。

(2)卸载已挂载的目录

命令:umount  /hangzhoufs_data/

解析:卸载已挂载的目录

(3)查看磁盘

命令:df -h

解析:查看磁盘情况。

14.4.2停止mds守护进程

节点app161:systemctl stop ceph-mds.target

节点app162:systemctl stop ceph-mds.target

节点app163:systemctl stop ceph-mds.target

14.4.3删除ceph文件系统

命令:ceph fs rm hangzhoufs --yes-i-really-mean-it

解析:hangzhoufs是已创建的ceph文件系统名称。

14.4.4删除ceph存储池pool

删除元数据池:ceph osd pool delete xihu_metadata xihu_metadata  --yes-i-really-really-mean-it

删除数据池:ceph osd pool delete xihu_data xihu_data --yes-i-really-really-mean-it

解析:删除pool时,需传递两次pool的名称。

14.4.5重启mds守护进程

节点app161:systemctl start ceph-mds.target

节点app162:systemctl start ceph-mds.target

节点app163:systemctl start ceph-mds.target

解析:重启mds。

15操作ceph块存储

15.1同步主节点配置文件到客户端

在主节点app161操作,操作目录:cd /etc/ceph。

(1)执行同步配置文件操作

命令:ceph-deploy admin 192.168.19.166

解析:ceph-deploy admin,执行同步配置命令;192.168.19.166,是客户端主机ip,如果没有配置免密,那么就需要输入密码确认。

(2)同步的文件列表

从主节点app161同步到客户端节点的配置文件:

ceph.client.admin.keyring、ceph.con、tmpW4qEGF。

15.2创建块存储

在客户端app166操作,操作目录:cd /etc/ceph。

15.2.1客户端创建存储池与初始化

(1)创建存储池

命令:ceph osd pool create hz_rbd_pool 32

解析:存储池名称:hz_rbd_pool。

(2)初始化存储池

命令:rbd pool init hz_rbd_pool

解析:存储池名称:hz_rbd_pool。

15.2.2客户端创建image

在主节点app161操作,操作目录:cd /etc/ceph。

(1)创建image

命令:rbd create hz_volume --pool hz_rbd_pool --size 1024

解析:创建image名称:hz_volume;对应存储池:hz_rbd_pool;指定大小:1024MB。

(2)查看image

命令:rbd ls hz_rbd_pool

解析:查看hz_rbd_pool,会打印出 hz_volume。

(3)查看rbd image详细信息

命令:rbd info hz_volume -p hz_rbd_pool

解析:查看rbd image详细信息

15.2.3把image映射成块存储

在主节点app161操作,操作目录:cd /etc/ceph。

(1)image映射成块存

映射步骤一:rbd feature disable hz_rbd_pool/hz_volume object-map fast-diff deep-flatten

映射步骤二:rbd map hz_rbd_pool/hz_volume

解析:映射成功后,打印信息:/dev/rbd0。映射到rbd0.

(2)查看映射

查看映射命令:rbd showmapped

解析:能查看映射目的目录。

(3)取消映射

命令:rbd unmap /dev/rbd0

解析:取消映射。

(4)查看映射的块

命令:lsblk

解析:已经看到块rdb0.

15.2.4块存储分区、创建文件系统和挂载

15.2.4.1块分区

(1)块分区

分区:fdisk /dev/rbd0

解析:把磁盘/dev/rbd0块分区;按提示分区。

(2)查看结果

查看分区结果:lsblk

15.2.4.2创建文件系统

命令:mkfs.xfs /dev/rbd0p1

解析:创建为/dev/rbd0p1文件系统。

15.2.4.3挂载磁盘

(1)创建挂载目录

命令:mkdir -p /mnt/hz_data

(2)挂载磁盘

命令:mount /dev/rbd0p1 /mnt/hz_data

解析:磁盘挂载到/mnt/hz_data。

(3)查看挂载结果

命令:df -h

15.2.5应用块存储

(1)写入一条数据到文件。

命令:echo 'Hangzhou is a city.'>>/mnt/hz_data/hz.txt

解析:写入到挂载目录,需求全路径名称。

15.3块存储在线扩容

在客户端app166操作。对块存储/dev/rbd0,做块存储在线扩容。

注意:块存储在线扩容必须在/dev/rbd0块设备上才支持;在块存储分区/dev/rbd0p1上不能扩容。

(1)卸载已挂载的块存储

卸载命令:umount /mnt/hz_data

解析:使用umount命令,卸载已挂载到/mnt/hz_data目录的块设备/dev/rbd0。

(2)删除/dev/rbd0分区

删除分区:fdisk /dev/rbd0

解析:在执行过程中根据提示,选择d代表删除、w代表写入和保存。

(3)对/dev/rbd0设备格式化

命令:mkfs.xfs -f /dev/rbd0

解析:格式化文件系统。

(4)挂载设备

命令:mount /dev/rbd0 /mnt/hz_data

解析:使用mount挂载设备。

(5)在线扩容

命令:rbd resize --size 1800 hz_rbd_pool/hz_volume

解析:使用rbd resize在线扩容。

(6)扩展文件系统

命令:xfs_growfs -d /mnt/hz_data

解析:fs_growfs命令来扩容xfs文件系统,将磁盘和文件系统容量对应上。

(7)查看扩展结果

查看磁盘:lsblk

查看文件系统:df -h

15.4块存储离线缩容

缩容前,数据备份。

(1)缩容

命令:rbd resize --size 600 hz_rbd_pool/hz_volume --allow-shrink

解析:缩容到600MB。

查看缩容后信息:rbd info hz_rbd_pool/hz_volume | grep size

(2)卸载已挂载的块存储

卸载命令:umount /mnt/hz_data

解析:使用umount命令,卸载已挂载到/mnt/hz_data目录的块设备/dev/rbd0。

(3)格式化文件系统

命令:mkfs.xfs -f /dev/rbd0

解析:格式化文件系统。

(4)挂载存储块

命令:mount /dev/rbd0 /mnt/hz_data

解析:使用mount挂载设备。

(5)查看缩容结果

查看磁盘:lsblk

查看文件系统:df -h

15.5删除块存储

(1)卸载已挂载的块存储

卸载命令:umount /mnt/hz_data

解析:使用umount命令,卸载已挂载到/mnt/hz_data目录的块设备/dev/rbd0。

(2)删除设备映射

命令:rbd unmap /dev/rbd0

(3)删除块存储此

命令:ceph osd pool delete hz_rbd_pool hz_rbd_pool --yes-i-really-really-mean-it

解析:删除pool时,需传递两次pool的名称。

16操作ceph对象存储

16.1确认已经安装rgw

在主节点app161操作,操作目录:cd /etc/ceph。

(1)确认已安装rgw

命令:ceph -s

解析:查看集群状态,确认rgw已安装。

(2)安装rgw

命令:ceph-deploy rgw create app161 app162 app163

解析:如果没有安装rgw,那么使用此命令安装。

16.2客户端生成操作对象存储秘钥

在客户端app166操作,操作目录:cd /etc/ceph。

(1)创建秘钥

命令:radosgw-admin user create --uid="hangzhou" --display-name="hangzhou"

解析:radosgw-admin是安装ceph-common已安装;hangzhou,是指定的名称。

(2)生成秘钥信息

生成key信息:

...
"user": "hangzhou",
"access_key": "IH7D60Y1FCF3RZR9NG36",
"secret_key": "vAG2dK6kyhJTRPbH5Nogw0Uqja2UR8egPeRoxDNb"
...

16.3使用S3操作对象存储

使用s3工具连接ceph的对象存储进行操作对象存储。

(1)安装s3cmd

命令:yum install -y s3cmd

解析:安装s3cmd。

安装辅助包:yum install -y python-pip

(2)配置s3cmd

修改文件:vi /root/.s3cfg

修改内容:

[default]
access_key=IH7D60Y1FCF3RZR9NG36
secret_key=vAG2dK6kyhJTRPbH5Nogw0Uqja2UR8egPeRoxDNb
host_base=192.168.19.161:7480
host_bucket=192.168.19.161:7480/%(bucket)
cloudfront_host=192.168.19.161:7480
use_https=False

(3)创建一个bucket(桶)

命令:s3cmd mb s3://hangzhou

解析:创建一个桶hangzhou。

(4)查看bucket

命令:s3cmd ls

解析:查看桶。

(5)上传文件到bucket

命令:s3cmd put /home/jdk-8u281-linux-x64.tar.gz s3://hangzhou

解析:上传文件到ceph的桶中存储。

(6)从bucket下文件

命令:s3cmd get s3://hangzhou/jdk-8u281-linux-x64.tar.gz

解析:从ceph的桶中下载文件到本地。

17卸载ceph集群

卸载集群使用ceph-deploy,在主节点上的/etc/ceph目录。

(1)卸载

卸载命令:ceph-deploy purge app161 app162 app163

卸载命令:ceph-deploy purgedata app161 app162 app163

(2)取消挂载目录

查看挂载目录:df -h

可以看到挂载在:/var/lib/ceph/osd/ceph-0

取消挂载命令:umount /var/lib/ceph/osd/ceph-0

(3)删除相关目录

查看相关目录:find / -name ceph

删除相关目录:/var/lib/ceph、/etc/ceph、/run/ceph、/var/run/ceph/、/var/local/osd0

以上,感谢。

2022年11月26日

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/37810.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

数据结构(5)树形结构——二叉搜索树(JAVA代码实现)

5.1.概述 二叉搜索树,也叫二叉查找树、二叉排序树,顾名思义,这种二叉树是专门用来进行数据查找的二叉树。二叉搜索树的查找其实就是二分查找。 二叉搜索树的定义: 二叉搜索树可以为空如果二叉搜索树不为空,那么每个…

Design Compiler工具学习笔记(7)

目录 引言 背景知识 多时钟设计 DC 输出文件分析 实际操作 设计源码 综合脚本 综合网表 SDF文件 SDC文件 REPORT文件 引言 本篇继续学习 DC的基本使用。本篇主要学习 DC 综合之后的效果分析,多同步时钟设计以及 DC 综合完成之后的各种输出文件。 前文链…

微信小程序开发基础(03视图与逻辑)

学习目标 能够知道如何实现页面之间的导航跳转 能够知道如何实现下拉刷新效果 能够知道如何实现上拉加载更多效果 能够知道小程序中常用的生命周期函数 页面导航 1. 什么是页面导航 页面导航指的是页面之间的相互跳转。例如,浏览器中实现页面导航的方式有如下两…

关于环境保护html网页设计完整版,5个以环境为主题的网页设计与实现

🎀 精彩专栏推荐👇🏻👇🏻👇🏻 ✍️ 作者简介: 一个热爱把逻辑思维转变为代码的技术博主 💂 作者主页: 【主页——🚀获取更多优质源码】 🎓 web前端期末大作业…

《剑指 Offer 》—50. 第一个只出现一次的字符

《剑指 Offer 》—50. 第一个只出现一次的字符 一、题目内容 原题连接:https://leetcode.cn/problems/di-yi-ge-zhi-chu-xian-yi-ci-de-zi-fu-lcof/description/ 题目:在字符串 s 中找出第一个只出现一次的字符。如果没有,返回一个单空格。…

【专栏】核心篇06| Redis 存储高可用背后的模式

关注公众号 【离心计划】呀,一起逃离地球表面 Redis专栏合集 【专栏】01| Redis夜的第一章 【专栏】基础篇02| Redis 旁路缓存的价值 【专栏】基础篇03| Redis 花样的数据结构 【专栏】基础篇04| Redis 该怎么保证数据不丢失(上) 【专栏…

RabbitMQ------发布确认高级(消息回调、回退、备份交换机)(八)

RabbitMQ------发布确认高级(八) 可能由于某些意外情况,导致RabbitMQ重启,在RabbitMQ重启过程中,生产者投递消息失败,导致消息丢失。 如果才能够保证RabbitMQ的消息可靠性呢? 可能出现两种问题…

大数据毕设选题 - 深度学习火焰识别检测系统(python YOLO)

文章目录0 前言1 基于YOLO的火焰检测与识别2 课题背景3 卷积神经网络3.1 卷积层3.2 池化层3.3 激活函数:3.4 全连接层3.5 使用tensorflow中keras模块实现卷积神经网络4 YOLOV54.1 网络架构图4.2 输入端4.3 基准网络4.4 Neck网络4.5 Head输出层5 数据集准备5.1 数据标…

CSRF漏洞简介

今天继续给大家介绍渗透测试相关知识,本文主要内容是CSRF漏洞原理、产生与危害。 免责声明: 本文所介绍的内容仅做学习交流使用,严禁利用文中技术进行非法行为,否则造成一切严重后果自负! 再次强调:严禁对未…

Maven——分模块开发与设计(重点)

目录 一、模块拆分 1.1 模块拆分思想 1.2 pojo模块拆分 1.3 dao模块拆分 1.4 service模块拆分 1.5 controller模块拆分 二、 聚合——模块聚合 三、继承——模块继承 一、模块拆分 1.1 模块拆分思想 左侧:我们从前的架构,一个人独立做的所有工作文件…

shell脚本的条件判断1:字符串和数字和比较

前言 写脚本时,为了让脚本更接近人类思考问题的方式,可以对各种情况进行判断。例如,经常需要判断某些条件是否成立,如果条件成立该如何处理,如果条件不成立又该如何处理,这些都可以通过Shell脚本的if语句结…

大数据_什么是数据中台?

目录 一、数据中台的定义 二、数据中台必备的是个核心能力 三、数据中台VS业务中台 四、数据中台VS数据仓库 五、数据中台VS现有信息架构 六、数据中台的业务价值与技术价值 一、数据中台的定义 数据中台是一套可持续“让企业的数据用起来”的机制,是一种战略…

vm的生命周期钩子

vm的生命周期钩子(共11个): 前8个: 将要创建>调用beforeCreate函数 创建完毕>调用created函数 将要挂载>调用beforeMount函数 (重要)挂载完毕>调用mounted函数>【重要钩子】 将要更新…

用户画像洞察分类模型 - 前端页面展示

文章目录一、前端与数据智能二、 体验优化需求场景跳失预测交互偏好智能 UI三、 关键技术鲸幂 UICook(智能UI)DataCookPipCookPipeline四、 体验优化实践数据智能实践的一般流程数据采集数据分析 -如何对数据进行分析处理并得出结论数据应用 - 分析结论如…

【C++】string类接口的了解和使用

为什么我们要学string类呢?那是必须是为了方便啊!在C语言中,我们创建一个字符串,有很多操作或者必须要注意的细节会把控不住,所以C中出现了string类,让我们应对字符串等oj题也方便快捷了许多! 目…

linux搭建redis数据库实现远程c语言访问

文章目录 linux安装reidis数据库c语言使用hiredis库实现redis数据库的操作测试代码使用hiredis库制作一个redis数据库管理系统linux安装reidis数据库 linux安装reidis数据库 sudo apt-get install redis-server使用systemctl命令查看redis服务运行状态 sudo systemctl statu…

Visual C++ 2010开发的程序在其它电脑上运行提示“找不到MSVCR100D.dll”原因及解决

Visual C 2010开发的程序在其它电脑上运行提示“找不到MSVCR100D.dll”原因及解决 Microsoft Visual C(简称Visual C、MSVC、VS或VC)2010是微软公司的免费C开发工具,具有集成开发环境,可提供编辑C语言,C以及C/CLI等编程…

惊喜:2023前瞻版Java面试指南,不止八股文

前言: 2022年马上就要过去了,即将要到来的就是2023年的金三银四面试季,随着政策的放宽,经济的逐步复苏,岗位的需求也会越来越大,所以趁这段时间进行知识储备将会是最好的时间段,永远要做快人一…

卷积神经网络——李宏毅机器学习笔记

以Image Classification为例 第一个解释角度: 先将不同尺寸的image,rescale成大小一样的尺寸,再丢到model中。 下图中,我们希望Cross entropy 越小越好 在计算机视角下的图片: 3 channels 对应R G B三个通道 随着模…

VirtualBox安装openEuler方案一

下载: https://www.openeuler.org/zh/mirror/list/ 根据设备架构选择对应的版本:windows是x86架构 选择下面这个4.2G大小的: 安装: 安装部分建议参考另一篇文章:virtualbox安装openEuler-方案二 下面部分的安装…