cephfs建立及掛載
ceph 檔案系統( ceph fs )是個 posix 相容的檔案系統,它使用 ceph 儲存集群來儲存資料。ceph 檔案系統要求 ceph 儲存集群內至少有乙個 ceph 元資料伺服器。
1、新增mds,接上篇,這裡把ceph01節點作為元資料伺服器mds。
```#ceph-deploy mds create ceph01
#netstat -tnlp | grep mds
tcp 0 0 172.16.100.5:6804 0.0.0.0:* listen 12787/ceph-mds
```2、建立兩個儲存池。mds需要使用兩個pool,乙個pool用來儲存資料,乙個pool用來儲存元資料。
```#ceph osd pool create fs_data 32
#ceph osd pool create fs_metadata 32
#rados lspools
```3、建立cephfs
```#ceph fs new cephfs fs_metadata fs_data
#ceph fs ls
name: cephfs, metadata pool: fs_metadata, data pools: [fs_data ]
```4、檢視mds狀態
```#ceph mds stat
e5: 1/1/1 up
```
---### 掛載cephfs
cephfs有不同的掛載方式,這裡只說其中一種,後面結合k8s使用的時候會用到該種方式。
1、載入rbd核心模組
```#modprobe rbd
#lsmod | grep rbd
rbd 83938 0
libceph 287066 2 rbd,ceph
```2、獲取admin key
```#cat ceph.client.admin.keyring
[client.admin]
key = aqdchxhyttjwhbaak2/h1ypa23wxkv4ja1nfww==
caps mds = "allow *"
caps mon = "allow *"
caps osd = "allow *"
```3、建立掛載點,嘗試本地掛載
```#mkdir /cephfs_test
#mount -t ceph 172.16.100.5:6789:/ /cephfs_test -o name=admin,secret=aqdchxhyttjwhbaak2/h1ypa23wxkv4ja1nfww==
#df -ht
172.16.100.5:6789:/ ceph 60g 104m 60g 1% /cephfs_test
```4、如果有多個mon節點,可以掛載多個節點,保證了cephfs的高可用,當有乙個節點down的時候不影響資料讀寫
```#mount -t ceph 172.16.100.5,172.16.100.6,172.16.100.7:6789:/ /cephfs_test -o name=admin,secret=aqdchxhyttjwhbaak2/h1ypa23wxkv4ja1nfww==
#df -ht
172.16.100.5,172.16.100.6,172.16.100.7:6789:/ ceph 60g 104m 60g 1% /cephfs_test
**:
Cephfs建立及掛載
ceph 檔案系統 ceph fs 是個 posix 相容的檔案系統,它使用 ceph 儲存集群來儲存資料。ceph 檔案系統要求 ceph 儲存集群內至少有乙個 ceph 元資料伺服器。1 新增mds,接上篇,這裡把ceph01節點作為元資料伺服器mds。ceph deploy mds creat...
資源池建立 cephfs建立
ceph osd crush add bucket test root root 建立根 ceph osd crush add bucket test host1 host 建立host ceph osd crush add bucket test host2 host 建立host ceph os...
cephFS的建立和使用
cephfs是ceph的檔案系統,可以通過核心掛載和fuse掛載兩種方式。1.建立mds 先需要mds守護程序執行的節點啟動mds程序,執行如下操作 mkdir p var lib ceph mds ceph ceph1 ceph auth get or create mds.ceph1 mon a...