dont

You are here: Home > > Konfigurasi Ceph Cluster

Konfigurasi Ceph Cluster

Topologi :

Tabel Addressing :
OS CentOS 6.6
IP Address
Netmask
Gateway
admin-node
172.16.11.50
255.255.255.0
172.16.11.1
node1
172.16.11.51
255.255.255.0
172.16.11.1
node2
172.16.11.52
255.255.255.0
172.16.11.1
node3
172.16.11.53
255.255.255.0
172.16.11.1
client
172.16.11.54
255.255.255.0
172.16.11.1

Tujuan :
  • Dapat mengetahui pengertian Ceph Cluster
  • Dapat mengetahui cara konfigurasi Ceph Cluster di admin-node
  • Dapat mengetahui cara konfigurasi Ceph Cluster di node1, node2, node3
  • Dapat mengetahui cara konfigurasi Ceph Cluster di client

Konsep Dasar :
Ceph Cluster adalah sebuah aplikasi open source yang berbasis distributed file system, high availability, ketahanan dan kemudahan untuk mengintergrate dengan openstack cloud sebagai storage (object, block and file storage).
Data direplikasi sedemikan rupa, sehingga menjadi “fault tolerant.” Perangkat lunak Ceph berjalan pada perangkat keras komoditas dan dirancang untuk mampu melakukan perbaikan “self-healing” dan pengelolaan “self-managing” secara mandiri, yang memberi dampak pengurangan biaya, baik pada administrator dan overhead.

Konfigurasi :
  1. Buka sistem operasi CentOS dan login sebagai root. Lalu atur IP di admin-node, node1, node2, node3, client dengan cara # vi /etc/sysconfig/network-scripts/ifcfg-eth0




  1. Selanjutnya di restart dengan perintah # service network restart




  1. Daftarkan nama pada setiap masing-masing IP tersebut. Edit file host di semua OS admin-node, node1, node2, node3, client dengan perintah # vi /etc/hosts
  1. Lalu kita akan mematikan “selinux” di admin-node, node1, node2, node3, client dengan cara # vi /etc/selinux/config lalu ubah “selinux=enforcing” jadi “selinux=disabled”
  1. Dan kita akan mematikan “firewall iptables” di admin-node, node1, node2, node3, client dengan cara seperti ini




  1. Kemudian install paket openssh di admin-node dengan cara # yum –y install openssh-clients tunggu sampai selesai (complete)
  1. Jalankan perintah # ssh-keygen di admin-node untuk membuat rsa public key baru
  1. Kemudian ketikkan perintah # ssh-copy-id -i .ssh/id_rsa.pub (namahostname) di admin-node



  1. Install paket wget pada admin-node dengan cara # yum –y install wget tunggu sampai prosesnya “complete”
  1. Download paket ceph dan epel di admin-node dengan cara # get -c http://ceph.com/rpm-firefly/el6/noarch/ceph-release-1-0.el6.noarch.rpm http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm
  1. Setelah paket ceph dan epel di download, sekarang install paket ceph dan epel tersebut di admin-node
  1. Sebelum menginstall paket “priorities” tambahkan priority menjadi 1 di admin-node
  1. Lalu install paket # yum –y install yum-plugin-priorities di admin-node. Tunggu sampai proses installasinya “complete”
  1. Kemudian install paket ceph-deploy di admin-node dengan perintah # yum –y install ceph ceph-deploy. Dan tunggu sampai installasi “complete”
  1. Buat file ceph-cluster di admin-node dan masuk kedalam file tersebut
  1. Selanjutnya lakukan MON ke node1 di admin-node dengan perintah # ceph-deploy new node1
  1. Lalu install paket ceph-deploy di admin-node, dengan perintah # ceph-deploy install admin-node node1 node2 node3. Dan tunggu sampai selesai
  1. install paket # ceph-deploy mon create-initial di admin-node, dan tunggu sampai selesai
  1. Selanjutnya lakukan pemformatan hardisk yang akan dijadikan object storage di node1, node2, node3 dengan perintah seperti ini
  1. Di node1, node2, node3 buat direktori dan lakukan mounting ke direktori tersebut
  1. Kemudian edit file # vi /etc/fstab di node1, node2, node3 dan tambahkan script seperti ini dibagian paling bawah
  1. Siapkan OSD untuk setiap node, ketikkan perintah # ceph-deploy osd prepare node1:/ceph-osd node2:/ceph-osd node3:/ceph-osd di admin-node. Dan tunggu sampai prosesnya selesai
  1. Lalu aktifkan OSD, ketikkan perintah # ceph-deploy osd activate node1:/ceph-osd node2:/ceph-osd node3:/ceph-osd di admin-node. Dan tunggu sampai prosesnya selesai
  1. Di admin-node lakukan copy file konfigurasi ceph dari admin-node ke node1 – 3
  1. Di admin-node berikan hak akses read pada file ceph.client.admin
  1. Selanjutnya di admin-node buat metadata server ke node1 dengan perintah # ceph-deploy mds create node1
  1. Ketikkan perintah # ceph health di admin-node untuk mengecek kesehatan ceph
  1. Mengecek quorum status di admin-node
  1. Di node1 lakukan cek status OSD dan cek service ceph. Kalau sempet lakukan pengecekan juga di node2 dan node3
  1. Di node1 lihat OSD sudah aktif atau belum dengan perintah # ceph osd tree. Dan lihat kapasitas harddisk ceph dengan perintah # ceph df
  1. Pada client lakukan instalasi xen dengan perintah # yum –y install centos-release-xen dan tunggu sampai proses installasinya selesai
  1. Di client lakukan perintah # yum –y update kernel
  1. Ketikkan perintah # uname –a di client untuk melihat versi kernel
  1. Pada admin-node lakukan penginstallan paket ceph-ceploy ke client dengan perintah # ceph-deploy install client. Dan tunggu sampai installasinya selesai
  1. Lakukan perintah # ceph-deploy admin client di admin-node
  1. Di client buat disk baru dengan menggunakan rbd
  1. Di client buat mapping ke disk yang sudah dibuat tadi
  1. Di client lakukan pemformatan disk yang sudah dibuat tadi
  1. Di client lakukan juga mounting ke disk yang tadi
  1. Buat pool pada OSD ceph di client
  1. Masih di client buat filesystem ceph dari pool yang sudah dibuat
  1. Pada client salin key dari file ceph.client.admin.keyring. Kemudian buat file baru untuk menyimpan key tersebut
  1. Pada client lakukan mounting driver ceph
  1. Install paket ceph-fuse di client
  1. Di client buat directory untuk do mount, kalau “172.16.11.51:6789” itu IP Address si node1
  1. Di client masuk ke directory yang sudah dibuat tadi dan buat file untuk diuji coba pada file system
  1. Yang terakhir, lihat hasil mounting dari ceph filesystem di client

~Selesai~