ceph節點
預設情況下,ceph的塊裝置使用rbd池,可以刪除rbd池,並建立以下池
注意:確保ceph的集群正常執行,然後再建立池。
# ceph osd pool create images 128
在安裝有glance-api的節點上配置ceph作為ceph的客戶端。每個都需要請求ceph.conf配置檔案
在ceph節點複製ceph.conf到openstack各節點
# scp /etc/ceph/ceph.conf :/etc/ceph/ceph.conf
※openstack若沒有安裝ceph客戶端(指令:yum install ceph),需要安裝,若沒有/etc/ceph資料夾,可手動建立
ceph節點:
1、使用cephx authentication,建立乙個新使用者為 nova/cinder 和 glance。
# ceph auth get-or-create client.glance mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=images'
建立後,可以用ceph authlist檢視是否建立成功
2、為client.glance 新增金鑰來訪問節點並改變許可權(如果有該相應使用者,則執行chown):
將ceph.client.glance.keyring複製在有glance的節點下/etc/ceph,並chmod修改許可權
# chown glance:glance /etc/ceph/ceph.client.glance.keyring
在openstack控制節點上
# ceph auth get-or-create client.glance | tee /etc/ceph/ceph.client.glance.keyring
3、在計算節點上:
執行 nova-compute 的節點 nova-compute 程序需要金鑰檔案。它們也儲存 client.cinder 使用者的金鑰在 libvirt。libvirt 程序在 cinder 中繫結塊裝置時需要用到它來訪問集群。
建立乙個臨時的金鑰檔案副本到nova-compute節點:
# ceph auth get-key client.cinder | tee client.cinder.key
生成乙個uuid
# uuidgen
a4751a57-919c-4fe7-87ca-668889f87ef3
編輯以下的文件vim secret.xml,將剛剛產生的uuid放在文件中的與中間
a4751a57-919c-4fe7-87ca-668889f87ef3
client.cinder secret
執行指令
# virsh secret-define --file secret.xml
再將秘鑰與client.cinder.key的值匯入virsh
# virsh secret-set-value --secreta4751a57-919c-4fe7-87ca-668889f87ef3 --base64 $(cat client.cinder.key)
檢視是否執行成功:
#virsh secret-list
將client.cinder.key、secret.xml複製在其它的nova節點上,執行命令
# virsh secret-define --file secret.xml
# virsh secret-set-value --secret a4751a57-919c-4fe7-87ca-668889f87ef3 --base64 $(cat client.cinder.key)
如果金鑰已經有了可以使用此指令virsh secret-undefine
為了平台的一致性,最好儲存相同的 uuid。
如果要啟用映象的寫時複製功能,新增下面如下配置:
show_image_direct_url=true
default_store=rbd
rbd_store_user=glance
rbd_store_pool=images
rbd_store_ceph_conf = /etc/ceph/ceph.conf
rbd_store_chunk_size =
8
# service openstack-glance-api restart
在dashboard介面成功新增映象後
ceph命令查詢rbd中是否有資料
# ceph osd pool ls
# rbd ls images
關於openstack對接ceph後端遇到的問題
按照官方文件在openstack上對接了ceph後端,但是openstack後端連線不上ceph,在openstack上執行ceph n client.admin s,一直處於等待卡死狀態,百思不得其解,後來找到解決方案了,是ceph被外部訪問的openstack訪問的埠沒有開啟。在ceph集群中執...
ceph儲存系統
ceph is a unified,distributed storage system designed for excellent performance,reliability and scalability.也即,ceph是一種為優秀的效能 可靠性和可擴充套件性而設計的統一的 分布式的儲存系...
ceph物件儲存,檔案儲存
簡述一下物件儲存,檔案儲存,和塊儲存的區別,以物件儲存為重點 1.塊儲存 讀寫快,不利於共享,以塊作為資料儲存的基本單元 2.檔案儲存 讀寫慢,利於共享,以檔案作為資料儲存的基本單元 3.物件儲存 讀寫快,利於共享,以物件作為資料儲存的基本單元 物件儲存,下圖是塊儲存和物件儲存的形象比較 物件儲存和...