1、檢視ceph的key
#進入ceph集群的管理主機
ceph auth get-key client.admin | base64
#得到這個串,下面使用
2、k8s裡面新增乙個密碼
c
at
apiversion: v1
kind: secret
metadata:
name: ceph-secret
data:
key: 這裡輸入上面得到的串
eof
3、k8s裡面新增乙個pv(持久儲存盤)
cat
apiversion: v1
kind: persistentvolume
metadata:
name: test-pv
spec:
capacity:
storage: 2gi
accessmodes:
- readwritemany
cephfs:
monitors:
- 10.41.10.81:6789,10.41.10.82:6789,10.41.10.83:6789
path: /
user: admin
readonly: false
secretref:
name: ceph-secret
persistentvolumereclaimpolicy: recycle
eof
4、k8s裡面新增乙個pvc(持久儲存盤宣告)
cat
kind: persistentvolumeclaim
apiversion: v1
metadata:
name: test-pvc3
spec:
accessmodes:
- readwritemany
volumename: test-pv
resources:
requests:
storage: 2gi
eof
5、k8s裡面新增乙個部署
cat
< test-centos
kind: deployment
metadata:
name: test-centos
spec:
replicas: 1
selector:
matchlabels:
template:
metadata:
labels:
spec:
containers:
- name: test-centos
image: 10.41.10.81:5000/centos
command: [
"/bin/sh"
] args: [
"-c","while true;do echo hello;sleep 1000;done"
] volumemounts:
- mountpath: "/data"
name: data
volumes:
- name: data
persistentvolumeclaim:
claimname: test-pvc3
eof
4、測試
kubectl get pods
kubectl exec -it test-centos-7c7bd5c9b4-6fc5w /bin/sh #進入已經執行的pod
進入pod
#以下內容在pod裡面執行
cd /data
touch
test
touch 20200414
exit
進入ceph的管理節點
#以下內容在ceph集群的管理伺服器上執行
cd /ceph #這個目錄是已經掛載的ceph目錄,掛載方法見另外一篇文章
ls
#這裡會看到剛剛新建的兩個檔案,說明我們的操作是符合預期的。 k8s 資料持久化儲存
pod重啟,資料依然存在 1 找一台伺服器作為nfs服務端 1 安裝nfs yum install y nfs utils 2 設定掛載路徑 vi etc exports data nfs rw,no root squash 3 設定的掛載路徑首先保證有這個路徑,沒有則建立 mkdir data m...
K8s部署prometheus監控K8s細節
prometheus 一些配置檔案可以再github上找到。部署 root kube prometheus manifests 目錄下所有檔案 部署 root kube prometheus manifests setup 目錄下所有檔案 要注意的是自己要建立乙個工作空間 如果報錯執行下面語句 部署...
k8s持久化儲存PV PVC部署
安裝nfs utils rpcbindyum install nfs utils rpcbind nfs utils所有節點都需要安裝 啟動systemctl restart rpcbind nfs編輯共享配置檔案 在主機節點編輯 vim etc exports寫入 mnt share rw 如果沒...