DRBDに挑戦 ; バージョンを9.0にアップ その3

いよいよdrbdを削除していきます。
# rmmod drbd → drbd.koを削除
# lsmod |grep drbd → 削除されているか確認。何も表示されずプロンプトが出ればOK
# yum remove kmod-drbd84 → 私の場合は凄く時間がかかった。
# yum remove drbd*  → drbd84-utils を削除
# rpm -qa | grep drbd → 念の為、drbd関連が無いか確認。何も表示がなければOK

そして、drbd9.0をインストールしていきます。
# yum install kmod-drbd90 drbd90-utils → kmodのインストールに時間がかかった。
# modprobe drbd → drbdのインストール
# cat /proc/drbd → バージョンを調べる
version: 9.0.22-2 (api:2/proto:86-116)
GIT-hash: 719792f2cc1360c65c848ffdb66090959e27fde5 build by akemi@Build64R7, 2020-09-29 17:13:49
Transports (api:16):

メタデーターの変換。DRBD 8とDRBD 9では内部の形式が異なるため、drbdadm create-mdコマンドを実行して、メタデータを変換します。
# drbdadm create-md r0
–== Thank you for participating in the global usage survey ==–
The server’s response is:

you are the 31399th user to install this version
You want me to create a v09 style flexible-size internal meta data block.
There appears to be a v08 flexible-size internal meta data block
already in place on /dev/vdd at byte offset 499826814976

Valid v08 meta-data found, convert to v09?
[need to type ‘yes’ to confirm] yes

md_offset 499826814976
al_offset 499826782208
bm_offset 499811528704

Found xfs filesystem
488097196 kB data area apparently used
488097196 kB left usable by current configuration

Even though it looks like this would place the new meta data into
unused space, you still need to confirm, as this is only a guess.

Do you want to proceed?
[need to type ‘yes’ to confirm] yes

Writing meta data…
New drbd meta data block successfully created.
success
最後にサクセスと表示されているので成功したようです。

プライマリーとの同期をを再開。
# drbdadm up r0
# drbdadm status
r0 role:Secondary
disk:UpToDate
smb0.kinryo.net role:Primary
peer-disk:UpToDate
セカンダリーとUpToDateになっているので同期しています。
ちなみに、8.4で使っていた cat /proc/drbdではこの情報は出てきません。
# crm_mon -1 → リソースの状態を調べる
Node smb1: standby

Online: [ smb0 ]
Active resources:
Resource Group: smbgroup
vipcheck_res (ocf::myres:VIPcheck): Started smb0
VirtualIP (ocf::heartbeat:IPaddr2): Started smb0
FS_DRBD0 (ocf::heartbeat:Filesystem): Started smb0
SAMBA (systemd:smb): Started smb0
NAMED (systemd:nmb): Started smb0
Master/Slave Set: MS_DRBD0 [DRBD0]
Masters: [ smb0 ]
あれスタンバイのままだ
# pcs cluster unstandby smb1 → smb1をオンラインにする

# crm_mon -1 → 再び確認
Stack: corosync
Current DC: smb0 (version 1.1.23-1.el7_9.1-9acf116022) – partition with quorum
Last updated: Thu Feb 4 15:45:54 2021
Last change: Thu Feb 4 15:45:45 2021 by root via cibadmin on smb1
2 nodes configured
7 resource instances configured
Online: [ smb0 smb1 ]
Active resources:
Resource Group: smbgroup
vipcheck_res (ocf::myres:VIPcheck): Started smb0
VirtualIP (ocf::heartbeat:IPaddr2): Started smb0
FS_DRBD0 (ocf::heartbeat:Filesystem): Started smb0
SAMBA (systemd:smb): Started smb0
NAMED (systemd:nmb): Started smb0
Master/Slave Set: MS_DRBD0 [DRBD0]
Masters: [ smb0 ]
Slaves: [ smb1 ]
やっと、両方共オンラインになった。
へーーー smb0が8.4でsmb1が9.0でも動くんだ!!

これでsmb1が9.0になったので、smb0を同じようにやっていきます。

    f-otake について

    1947年生れ、東京電機大学二部電気通信工学科卒、最後はスリランカ航空で営業だったのですが2018年に㈱インパック・ジャパンに再就職。趣味:登山、スキー、車いじり、コンピューター
    カテゴリー: DRBDに挑戦(CentOS7) パーマリンク

    コメントを残す

    メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

    このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください