systemctl isolate multi-user.target
適用於 ceph 15 + octopus ,cephadm 自動部署
知曉 fsid
大部分檔案未丟失
完整步驟可以參考 官網,或者博主的 其他 ceph 系列部落格
cephadm 依賴 python36 ,
安裝時,請開啟**工具
curl --silent --remote-name --location
chmod +x cephadm
./cephadm --help
./cephadm add-repo --release octopus
./cephadm install
systemctl list-dependencies ceph.target
ceph.target
● └─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@alertmanager.host-192-168-141-20.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@crash.host-192-168-141-20.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@grafana.host-192-168-141-20.service
● ├─[email protected]_fs.host-192-168-141-20.mcwtpb.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mgr.host-192-168-141-20.fsdiay.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mon.host-192-168-141-20.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@node-exporter.host-192-168-141-20.service
● └─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@prometheus.host-192-168-141-20.service
保證整個ceph 下盡量只有乙個集群配置。
如果存在多餘的 ceph 服務, 可以通過 cephadm 進行刪除
博主一開始不太會使用, 多次執行了 cephadm bootstrap 指令,建立了 多個 ceph 服務
只保留乙個集群
# rm--cluster 會刪除
# /var/lib/ceph/
# /var/log/ceph/
# /etc/systemd/system/**
# 並且移除多餘的 正在執行 docker 容器
cephadm rm-cluster --fsid dc05693c-48bb-11eb-84da-fa163e717f07 --force
# 刪除之後可以確認一下
ls /var/lib/ceph/
2aa7de1c-497a-11eb-b926-fa163e717f07
ls /var/log/ceph/
2aa7de1c-497a-11eb-b926-fa163e717f07
ls /etc/systemd/system/
。。。。。
docker ps
。。。。
systemctl isolate multi-user.target
systemctl 中包含 以下概念
systemctl service
systemctl unit
systemctl want
systemctl target
多個 service 組成 unit
unit 可以被 其他unit 依賴 形成
unit_1 target unit_2
然後 具體的 want 關係又會存放在 相應的 wants 目錄中
systemctl isolate multi-user.target
真實作用是 切換 linux 作業系統的 工作模式
我們的伺服器執行在 多使用者 無介面模式。
cephadm bootstrap 集群的時候,會在 /etc/systemd/system 下安裝 ceph 集群自啟動服務
cat /etc/systemd/system/ceph.target
[unit]
description=all ceph clusters and services
[install]
wantedby=multi-user.target
***檔案的意思 就是 ceph.target 依賴於 多使用者啟動 target
/etc/systemd/system/ceph.target 會去遍歷 相應的 wants 目錄
-->
ls /etc/systemd/system/ceph.target.wants
ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target
相應的 ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target 又會去遍歷 對應的 want 目錄
-->
ls /etc/systemd/system/ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target.wants
ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@alertmanager.host-192-168-141-20.service ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mon.host-192-168-141-20.service
ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@crash.host-192-168-141-20.service
....
....
....
....
..
systemctl list-dependencies ceph.target
-->
ceph.target
● └─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@alertmanager.host-192-168-141-20.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@crash.host-192-168-141-20.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@grafana.host-192-168-141-20.service
● ├─[email protected]_fs.host-192-168-141-20.mcwtpb.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mgr.host-192-168-141-20.fsdiay.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mon.host-192-168-141-20.service
● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@node-exporter.host-192-168-141-20.service
● └─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@prometheus.host-192-168-141-20.service
分布式儲存系統 Ceph
你了解ceph嗎?ceph是一種分布式儲存系統,它可以將多台伺服器組成乙個超大集群,把這些機器中的磁碟資源整合到一塊兒,形成乙個大的資源池 pb級別 然後按需分配給應用使用。那麼你知道ceph的架構嗎?ceph的底層實現是rados,rados是由c 寫的,但是它向外界暴露了呼叫介面,即librad...
分布式儲存系統 Ceph
你了解ceph嗎?ceph是一種分布式儲存系統,它可以將多台伺服器組成乙個超大集群,把這些機器中的磁碟資源整合到一塊兒,形成乙個大的資源池 pb級別 然後按需分配給應用使用。那麼你知道ceph的架構嗎?ceph的底層實現是rados,rados是由c 寫的,但是它向外界暴露了呼叫介面,即librad...
Ceph分布式儲存系統簡介
內容 注 了解ceph的作用與基本概念 ceph是乙個可靠地 自動重均衡 自動恢復的分布式儲存系統,根據場景劃分可以將ceph分為三大塊,分別是物件儲存 塊裝置儲存和檔案系統服務。在虛擬化領域裡,比較常用到的是ceph的塊裝置儲存,比如在openstack專案裡,ceph的塊裝置儲存可以對接open...