在使用儲存服務的時候,時常會根據使用者的權限(付的錢?XD)來決定這個使用者可以使用哪些硬體支援,常見的像是 SSD, HDD 或者 Tape 等等。
本篇就是專門介紹在 Ceph 中透過 Crush Rule 將硬體支援歸納出多種不同的 Partitions,並且配置每個 RGW 使用者可以儲存的 Placement tags 與 default Placement,以達到如上述限制使用者可儲存的硬體支援。
在使用儲存服務的時候,時常會根據使用者的權限(付的錢?XD)來決定這個使用者可以使用哪些硬體支援,常見的像是 SSD, HDD 或者 Tape 等等。
本篇就是專門介紹在 Ceph 中透過 Crush Rule 將硬體支援歸納出多種不同的 Partitions,並且配置每個 RGW 使用者可以儲存的 Placement tags 與 default Placement,以達到如上述限制使用者可儲存的硬體支援。
對於剛進入 Ceph 領域的讀者,部署 Ceph 可能會採用相對應的部署工具,例如:ceph-deploy。雖然它可以幫助我們快速建立 Ceph 叢集,但是對於 Ceph 整體部署流程與過程中每個 Components(如:MON, MDS)等,運作方式可能會有疑惑。
因此希望可以透過本篇文章一步一步帶領讀者安裝 Ceph 叢集,讓讀者可以理解每個步驟用途與叢集運作的流程。
使用 Object Storage 一陣子以後,或許你會發現儲存的檔案愈多要找檔案愈麻煩。因此 Ceph 在 K(Kraken) 版以後有提供一個 sync module 可以將資料同步到 Elasticsearch,方便使用者或管理人員利用 query 語法快速找到你想要搜尋檔案的 metadata。
Update your browser to view this website correctly. Update my browser now
使用 Object Storage 一陣子以後,或許你會發現儲存的檔案愈多要找檔案愈麻煩。因此 Ceph 在 K(Kraken) 版以後有提供一個 sync module 可以將資料同步到 Elasticsearch,方便使用者或管理人員利用 query 語法快速找到你想要搜尋檔案的 metadat
在使用儲存服務的時候,時常會根據使用者的權限(付的錢?XD)來決定這個使用者可以使用哪些硬體支援,常見的像是 SSD, HDD 或者 Tape 等等。 本篇就是專門介紹在 Ceph 中透過 Crush Rule 將硬體支援歸納出多種不同的 Partitions,並且配置每個 RGW 使用者可以儲存的
本篇要介紹如何將 Ceph RGW 與 OpenStack Barbican 進行整合,將使用者透過 Ceph Radosgw 上傳的檔案在 Server Site 進行 Server Side Encription - SSE(伺服器端加密),可以有效提升資料安全性,讓儲存在伺服器端的資料不再是明
Ceph Object Storage 除了可以自身管理使用者訊息與驗證外,也可以透過 OpenStack Keystone 進行管理。本篇會先介紹如何在 CentOS 7 上安裝 OpenStack Keystone (Version Stein),後續會在下篇時介紹如何與 Ceph 進行串接!
事隔多日來繼續介紹後續 Ceph RGW 與 OpenStack Keystone 的整合配置,還沒有讀上篇的讀者可以先閱讀上篇,若有興趣也可逐步跟著這系列的文章進行操作,或許你會對於內容更有感覺唷! 話不多說就開始吧!! 前置條件 在虛擬機器或實體機器上已安裝 Ceph RGW 與 OpenSta
目前在 ASUS OCIS 擔任研發替代役,在學習技術過程中經常吸取前輩們的經驗來提昇自己的專業知識,也因如此,希望自己也可以將研究過程中的問題與解決方法提供給更多的技術愛好者作為參考。 Skill JavaScript, ECMAScript 6/7 Vue2.0, Vuex Node.js, E