事隔多日來繼續介紹後續 Ceph RGW 與 OpenStack Keystone 的整合配置,還沒有讀上篇的讀者可以先閱讀上篇,若有興趣也可逐步跟著這系列的文章進行操作,或許你會對於內容更有感覺唷!
事隔多日來繼續介紹後續 Ceph RGW 與 OpenStack Keystone 的整合配置,還沒有讀上篇的讀者可以先閱讀上篇,若有興趣也可逐步跟著這系列的文章進行操作,或許你會對於內容更有感覺唷!
在使用儲存服務的時候,時常會根據使用者的權限(付的錢?XD)來決定這個使用者可以使用哪些硬體支援,常見的像是 SSD, HDD 或者 Tape 等等。
本篇就是專門介紹在 Ceph 中透過 Crush Rule 將硬體支援歸納出多種不同的 Partitions,並且配置每個 RGW 使用者可以儲存的 Placement tags 與 default Placement,以達到如上述限制使用者可儲存的硬體支援。
對於剛進入 Ceph 領域的讀者,部署 Ceph 可能會採用相對應的部署工具,例如:ceph-deploy。雖然它可以幫助我們快速建立 Ceph 叢集,但是對於 Ceph 整體部署流程與過程中每個 Components(如:MON, MDS)等,運作方式可能會有疑惑。
因此希望可以透過本篇文章一步一步帶領讀者安裝 Ceph 叢集,讓讀者可以理解每個步驟用途與叢集運作的流程。
使用 Object Storage 一陣子以後,或許你會發現儲存的檔案愈多要找檔案愈麻煩。因此 Ceph 在 K(Kraken) 版以後有提供一個 sync module 可以將資料同步到 Elasticsearch,方便使用者或管理人員利用 query 語法快速找到你想要搜尋檔案的 metadata。
Update your browser to view this website correctly. Update my browser now