九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
Fedora 14上安裝 Ceph 0.24

Fedora 14上安裝 Ceph 0.24

花了很長時間安裝ceph,中間走得彎路實在走得太多太多,確實有必要記下來總結(jié)一下。期間我也參考不少他人的資料,最后還是在ceph官網(wǎng)的mail-list上熱心人的幫助下才順利把雛形搭建起來。

Ceph系統(tǒng)總共有4個角色,client、mon、mds和osd,我看的資料mon和mds都是裝在了一起。我在Vmware上進行搭建測試。本來搭了三臺機子,后來為了中間遇到了些問題,為了排除osd的連接的問題,把mon、mds和osd直接都裝在了一臺機子上。這個不影響初期的安裝探索。

準備條件:要求幾臺主機能夠免密碼且能根據(jù)hostname訪問。具體實現(xiàn)可以參考http://www.linuxidc.com/Linux/2011-01/31579.htm

步驟如下:

1,  首先是client,這是需要ceph.ko這個模塊的支持的。對于老版本的內(nèi)核,可能要自己手動編譯,把模塊加載進來。如果想知道正在運行著的OS是否已經(jīng)包含該模塊,cd到目錄/lib/modules/***/kernel/fs/查看當前內(nèi)核支持的文件類型,如果有ceph這個文件那表示已經(jīng)包含了該模塊。modprobe ceph加載一下就可以了。$modprobe -l|grep ceph,

kernel/fs/ceph/ceph.ko //返回類似這樣的信息就表示已經(jīng)加載成功了,客戶端這邊ok了。

2,  如果step 1 已經(jīng)ok,可以跳過這一步。對于諸如RedHat這樣的系統(tǒng),選用的內(nèi)核比較老,需要升級內(nèi)核至少到2.6.34。因為新版本的內(nèi)核對ceph提供直接支持。方法有兩個都是直接從別人那里cpoy來的。

第一種方法

$git clone git://git.kernel.org/pub/scm/linux/kernel/git/sage/ceph-client.git

$cd ceph-client

$make menuconfig

//搜索ceph,可以發(fā)現(xiàn)有兩個關(guān)于ceph的選項,選上就好.編譯內(nèi)核的方法這里//就不在贅述,直接上命令了

$make && make modules && make modules_install && make install && reboot

//上述編譯內(nèi)核的命令只在RedHat系列系統(tǒng)上試過有效,其他發(fā)行版可能稍有不同,自己google一下吧。

第二種方法:

$下載源代碼

$ git clone git://ceph.newdream.net/git/ceph-client-standalone.git

$ git branch master-backport origin/master-backport

$ git checkout master-backport

$編譯

$ make or make KERNELDIR=/usr/src/… $前者表示用于當前在用內(nèi)核,后者其它路徑

$ 編譯成功后會產(chǎn)生ceph.ko

$ make install

$ modprobe ceph or inmod ceph.ko

安裝OSD,這些步驟需要在每個OSD上重復(fù)操作。

3.1,去官網(wǎng)下載最新版本源代碼http://ceph.newdream.net/

3.2,解壓安裝。

$tar –xzvf ceph-0.24.tar.gz

$ ./autogen.sh

$ ./configure

$ make

在configure時一般會提示缺少一些包,一次安裝一下就行了,Fedora 14基本都可以用yum來直接安裝。

3.3,準備OSD空間,用fdisk之類的工具分配出一塊獨立分區(qū)

3.4,對新分區(qū)進行btrfs的格式化

$yum install btrfs-progs.i686

$mkfs.btrfs /dev/sda3

3.5掛載分區(qū)

$mkdir –p /mnt/btrfs/osd0

$ mount -t btrfs /dev/cciss/c0d2p1 /mnt/btrfs/osd0/

$ df –h

/dev/sda1             9.7G  4.6G  5.0G  48% /

/dev/sda3             9.3G  4.4M  9.3G   1% /mnt/btrfs/osd0

4,  mon和mds安裝

4.1,重復(fù)3.1和3.2

4.2,配置ceph.conf和fetch_config配置文件

ceph.conf:

; global

[global]

        ; enable secure authentication

        ;auth supported = cephx

 

; monitors

;  You need at least one.  You need at least three if you want to

;  tolerate any node failures.  Always create an odd number.

[mon]

        mon data = /data/mon$id

 

        ; logging, for debugging monitor crashes, in order of

        ; their likelihood of being helpful :)

        ;debug ms = 1

        ;debug mon = 20

        ;debug paxos = 20

        ;debug auth = 20

 

[mon0]

        host = cephosd

        mon addr = 192.168.178.160:6789

 

; mds

;  You need at least one.  Define two to get a standby.

[mds]

        ; where the mds keeps it's secret encryption keys

        ;keyring = /data/keyring.$name

 

        ; mds logging to debug issues.

        ;debug ms = 1

        ;debug mds = 20

 

[mds.alpha]

        host = cephosd

 

; osd

;  You need at least one.  Two if you want data to be replicated.

;  Define as many as you like.

[osd]

        sudo = true

        ; This is where the btrfs volume will be mounted.

        osd data =/mnt/btrfs/osd0$id

 

        ; Ideally, make this a separate disk or partition.  A few

        ; hundred MB should be enough; more if you have fast or many

        ; disks.  You can use a file under the osd data dir if need be

        ; (e.g. /data/osd$id/journal), but it will be slower than a

        ; separate disk or partition.

 

        ; This is an example of a file-based journal.

        osd journal = /mnt/btrfs/osd$id/journal

        osd journal size = 1000 ; journal size, in megabytes

 

        ; osd logging to debug osd issues, in order of likelihood of being

        ; helpful

        ;debug ms = 1

        ;debug osd = 20

        ;debug filestore = 20

        ;debug journal = 20

 

[osd0]

        host = cephosd

 

        ; if 'btrfs devs' is not specified, you're responsible for

        ; setting up the 'osd data' dir.  if it is not btrfs, things

        ; will behave up until you try to recover from a crash (which

        ; usually fine for basic testing).

        btrfs devs = /dev/sda3

        osd data = /mnt/btrfs/osd0

 

 

; access control

[group everyone]

; you probably want to limit this to a small or a list of

; hosts. clients are fully trusted.

addr = 0.0.0.0/0

 [mount /]

allow = %everyone

 

fetch_config:

 

#!/bin/sh

conf="$1"

 

## fetch ceph.conf from some remote location and save it to $conf.

##

## make sure this script is executable (chmod +x fetch_config)

 

##

## examples:

##

 

## from a locally accessible file

# cp /path/to/ceph.conf $conf

 

## from a URL:

# wget -q -O $conf http://somewhere.com/some/ceph.conf

 

## via scp

# scp -i /path/to/id_dsa http://www.360doc.com/mailto:user@host:/path/to/ceph.conf $conf

scp http://www.360doc.com/mailto:qw@cephosd:/qw/ceph-0.24/src/ceph.conf .

 

Ceph.config是比較重要的,mon要通過他來連接各個osd所以一定要配置正確,很多功能也需要在這里設(shè)置。由于先在測試安裝,所以就選擇了最簡單的配置。fetch_config:在這個文件里面,我們使用scp的方法,除此還可以使用nfs把ceph.conf文件共享,總之目的就是將在整個集群里面使用同一份ceph.conf。安裝完了之后,會在/etc/local/etc/下產(chǎn)生ceph文件夾,把這兩個配置文件放在這里。

4.3 /etc/init.d/ceph 腳本

該腳本在編譯ceph的時候,會在src/里生成一個init-ceph文件,由init-ceph.in模板來生成

如果需要開機自動啟動ceph集群的話,將該腳本復(fù)制到/etc/init.d/目錄下,并使用chkconfig命令來添加該服務(wù).

這個服務(wù)應(yīng)該只需要在monitor端上安裝即可.

4.4創(chuàng)建文件系統(tǒng),在monitor端執(zhí)行

$ mkcephfs -c /etc/local/etc/ceph/ceph.conf --allhosts --mkbtrfs -k keyring.bin

它會根據(jù)ceph.conf里面的配置自動的去各個節(jié)點上進行相應(yīng)的配置. 這里要說一下的是keyring.bin文件,他一開始不存在,其實默認配置下并不需要,可以在src目錄下運行./vstart.sh -n -x會自動產(chǎn)生。

4.5 啟動ceph文件系統(tǒng)

在mon執(zhí)行

$/etc/init.d/ceph –a start

5.客戶端,掛在系統(tǒng)

$ mkdir /mnt/ceph

$ mount –t ceph 192.168.178.160:/ /mnt/ceph

$df –h

Filesystem            Size  Used Avail Use% Mounted on

/dev/mapper/vg_client-lv_root

                       18G  9.0G  8.3G  53% /

/dev/sda1             485M   51M  409M  12% /boot

192.168.178.160:/     9.3G  5.0M  9.3G   1% /mnt/ceph

很多問題會導致出在mount時,無法掛載成功。

1)  mount error 5 = Input/output error,這個問題很可能是因為在虛擬機上安裝時host OS的防火墻導致的。

2)  can’t read superblock,出現(xiàn)這個問題原因很多,可能是osd和mon的防火墻沒關(guān),也可能端口配置文檔里修改。還有就是一旦配置文檔發(fā)生改變的話,最好mkcephfs重新執(zhí)行一遍,因為這個命令會生成一些文件還是對應(yīng)著原先的配置文件。

3)  有問題實在解決不了,還是去ceph的mail-list問,只要你把問題描述清楚。作者還是很熱心的。


本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
ceph 安裝
Rook定制化和管理Ceph集群
Ceph配置參數(shù)(一)
Linux 遠程掛載 Ceph RBD 磁盤
“Ceph淺析”系列之八——小結(jié)
ceph工作原理和安裝
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服