Japan Rook Meetup #3での発表スライドです。Ceph、完全に理解した」って Tweetしてもらう為に、Cephの基本について解説しています。
タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。
こんにちは。「Rookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020」6日目は、タイトルの通り、ストレージ初心者だった筆者がCephのベンチマークを計測した際に学んだストレージシステムの性能指標とCephに代表されるような分散ストレージを計測する上での特徴や注意点について簡単にまとめます。 Rookではなくてもクラウドネイティブなストレージに関する投稿であればヨシという参加条件でしたので、Rookでもよく利用されているCephをこよなく愛する筆者としては、のりと勢いだけで応募しました。ろくに熟考もせず記載しているため間違いがあれば優しくご指摘ください! はじめに さて、本記事は上記の通り、ストレージ素人だった筆者がCephのベンチマーク等を担当したときに、事前にこんな知識を知っておきたかったと感じた事柄について、記載したいと考えております。 また断り
はじめに こんにちは、Necoプロジェクトのsatです。本記事では分散ストレージCephのオーケストレータであり、Kubernetes上で動作するRookに関するものです。このRookに存在していたデータ破壊バグを我々が検出、修正した体験談、およびそこから得られたことを読者のみなさんに共有します。本記事は以前Kubernetes Meetup Tokyo #36におけるLTで述べた問題のフォローアップという位置づけです。 speakerdeck.com "解決までの流れ(詳細)"の節以外はRookやCephについて知らなくても適宜用語を説明するなどして読めるように書きました。 Rook/Ceph固有の話にも興味があるかたは以下の記事/スライドも併せてごらんください。 blog.cybozu.io speakerdeck.com 用語 Rook/Cephについて知らないかた向けに、まずは本節
こんにちは、GMOインターネットグループ株式会社の長谷川です。 今回は Kubernetes 環境での Rook Ceph ストレージ に関して語っていこうと思います。 Rook Ceph とは Rook Cephは、Kubernetes上(k8s上)に分散ストレージのCephをデプロイし、ストレージの運用を自動化するストレージオペレーターで、Cephは分散オブジェクトストレージ機能を提供する、オープンソースのストレージソフトウェアです。 https://rook.io/ Kubernetes 環境でデプロイし、ストレージクラスを用意することで、PersistentVolume(PV)を Dynamic Provisioning することが出来ます。 【STEP1】Kubernetes クラスタを用意する。 まず Rook Ceph をデプロイする Kubernetes クラスタを用意しま
こんにちは、うつぼです。 今日は小ネタで Ceph の capacity usage について説明します。 Ceph はどれくらいの容量が使えるのか分かりづらいことで定評があります。 いや分かることは分かるんですが、「なんでそーなるの?」と欽ちゃんライクになる人もいるでしょう。今日はそこを紐解いていきましょう。 ceph df を見ていく ceph df の出力 まず、Ceph の Pool の capacity usage は、ceph df コマンドで見ることができます。 0.5 TiB (512 GiB) の osd を1つだけ持つシンプルな 3 node の Ceph クラスターを用意します。直後に、 3x replicated pool 2x replicated pool 2+1 erasure coded pool の3つの Pool を作り、ceph df を実行してみます
The Future of Storage™Ceph is an open-source, distributed storage system. Discover Ceph Reliable and scalable storage designed for any organizationUse Ceph to transform your storage infrastructure. Ceph provides a unified storage service with object, block, and file interfaces from a single cluster built from commodity hardware components. Deploy or manage a Ceph clusterDeploy Ceph now. Use the li
はじめに 本記事はRookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020 5日目の記事です。Rook/Cephのオブジェクトストレージのこれまでとこれから、とくにインタフェースについて述べます。まずはCephのオブジェクトストレージについて軽く触れた後に、Rookにおいてオブジェクトストレージをどのように使うのか、今後はどうなるのか、という順番で説明します。 Cephのオブジェクトストレージ CephはRadosGW(RGW)という機能名でオブジェクトストレージをサポートしています。インタフェースはS3互換のものとSwift互換のものの二つを提供しています。Cephの中心部にはRADOSという名前の独自形式のオブジェクトストレージシステムが存在していて、この機能はそれと一般によく使われている前述のインタフェースとのゲートウェイなので"Rados" "
この記事はRookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020 4日目の記事です。 お久しぶりです。レッドハットでストレージを中心にクラウドインフラを生業にしている宇都宮です。 去年のアドベントカレンダーぶりかもしれませんね、今年もがんばってやってますので、ストレージ愛が五臓六腑に沁み渡るみなさんのブログを楽しんで下さいね!今日はRookのブログから閑話休題で、CephのMultiSiteについて書いていきます。 qiita.com あとRookのTwitterアカウント、@japan_rookのフォローお願いしまーす! サイト障害に耐えるためのサイト間レプリケーション 一般的にオブジェクトストレージサービスはサイト障害に耐えられるよう、バックグラウンドでサイト間レプリケーション等が行われていることが多いと思います。 正直オブジェクトストレージはブ
最初に 前記事からの続きになりますので PC3台ともにProxmox VE 6.1-5でクラスタ構築済です Cephについて Proxmoxで共有ストレージを使う場合はESXi同様にiSCSIやNFSに対応 他にもCIFSやGlusterFS・Cephにも対応していますが おすすめされているのはZFS over iSCSIかCeph/RBDになります 今回はProxmoxのWEBGUIにも組み込まれているCeph/RBDを試すことにしました Ceph自体は分散ストレージシステムになっていて VMwareでいうvSAN的なシステムが組める為 VMのライブマイグレーション対応はもちろんのこと 単一障害点を排除できるのが最大のメリットになります デメリットはvSAN同様にシステム要件になります Cephをまともに使おうとするとよく言われるのは PC3台以上・CPUはそこそこで大丈夫ですがメモリは
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く