thunderbirdにサーバーにあるディレクトリーが表示されない

linuxのthunderbird(Ver 68.12.0)でメールサーバーにディレクトリーを作成しても表示されない。

下記の様に設定すると表示される様になる。

編集 → アカウント設定 → 左にあるサーバー設定をクリック。右のサーバー設定の右の方にある詳細をクリック。メールユーザー名にある“購読しているフォルダーのみを表示する”のチェックを外す。thunderbirdを再起動すると表示された。

    カテゴリー: その他 | コメントする

    危険なIPアドレス

    今日、メールのログ(/var/log/maillog)をチェックしていたら、ログに 45.125.65.*(実際は二つのIP、書くと避けて送られるので、又このIPは香港に割り当てられいる)から1893回の記録があり、全てログイン失敗になっていた。1回の接続で3つのログが記録されるので、両方のIPで5日間で631回、1日で126回以上のログインが試みられていた。又、141.98.10.*の3つのIPからも583回のログインがあった。これはリトアニアに割り当てられている。ので、この5つのIPを/root/deny_ipとして登録し、設定を反映するために sh iptables.sh を行った。

      カテゴリー: 危険メールや手紙、IP | コメントする

      CentOS 7 運用時の色んなメモ

      apache 設定チェック : apachectl configtest

      postfix 設定チェック : postfix check

      postfix設定表示         :   postconf

      spamassasin 設定チェック : spamassassin –lint  (– は見にくいが: ハイフォンが二つ)

      ポート指定のping         :   nc -vz ドメイン/IP ポート

        カテゴリー: Linux運用時のメモ | コメントする

        CentOS7でショートカットのキーが効かない

        状態:全角・半角を押しても日本語や直接入力に切り替わらない。でも右上の “あ” や” _A” をクリックし、入力モードから ひらがなや直接入力を選ぶと変更される。

        色々とgoogle先生に聞いて調べたがどれもインストールされていたり、設定されていたりしている!!!なんで変更できない、いちいちクリックするのでは1回で終わらないし、タイピングの途中でマウス操作は煩わしい。色々やって見ると

        Alt+@ と Alt+Shift+@ で切り替わった。他の3つは切り替わらない。Altとの組み合わせのみが切り替わる。

        原因は未だに不明だが、ともかく Alt+@ で切り替わるので良しとしている。

        理由がわかる方がいれば教えてください(下にあるコメントするから)

         

          カテゴリー: Linux運用時のメモ | コメントする

          今度はAMAZONを騙ったショートメールが来た!!

          なんでこんなに変なメールがいっぱい来るの? 

          これがその内容である。何度も言うようだが、必ずドメインを確認すること!!

          このリンク先のドメインは o1u.top だ。なのでここはアマゾンでは無い!!

          アマゾンのドメインは私の知る限り amazon.co.jp か amazon.com である。

          ドメインの前にあるuser-amazon はホスト名で誰でも勝手に作れる。でもドメインは登録が必要なので簡単にはごまかせない。e-mailでhtmlを有効にしていたらリンク先に適当な文字を充てられ、リンク先と表示されている文字が違うように出来るが、ショートメールでは出来ないので、リンク先のドメインは表示されているので気を付ければ良いだけ。余談だが o1u なんていかにも怪しげだと思うが。

          これでログインしようものなら、あなたのユーザー名(ID)とパスワードは完全に盗まれる。調べてみると、これは中国からだ。中国はこんな輩が多いから、私のサーバーでは中国からのパケットは一切拒否している。

            カテゴリー: 危険メールや手紙、IP | コメントする

            DRBDに挑戦;sambaの設定:8(CentOS7)

            sambaのグループは以下の方針
            1:個人用directoryは作らない
            2:public directory も作らない
            3:社員全員がアクセスできるdirectoryを作る
            4:部門毎にアクセスできるdirectoryを作る
            という方針でsmb.confを設定して行きますが、ほぼ http://centossrv.com /samba.shtml
            からの受け売りです。
            # gedit /etc/samba/smb.conf
            [global]
            unix charset = UTF-8 ← 追加(Linux側日本語文字コード)
            dos charset = CP932 ← 追加(Windows側日本語文字コード)
            mangled names = no ← 追加(長いファイル名の文字化け対処)
            vfs objects = catia ← 追加(上記対処でファイルアクセス不可になる一部文字の置換)
            catia:mappings = 0x22:0xa8,0x2a:0xa4,0x2f:0xf8,0x3a:0xf7,0x3c:0xab,0x3e:0xbb,0x3f:0xbf,0x5c:0xff,0x7c:0xa6 ← 追加(上記対処でファイルアクセス不可になる一部文字の置換)
            # workgroup = NT-Domain-Name or Workgroup-Name
            workgroup = WORKGROUP ← 変更(Windowsのワークグループ名を指定)
             ※マイコンピュータのプロパティ⇒コンピュータ名タブ内のワークグループ欄を参照
            ; hosts allow = 192.168.1. 192.168.2. 127.
            hosts allow = 192.168.11. 127. ← 追加(内部からのみアクセスできるようにする,IPはローカルネットワークに合わせる)
            # If you want to automatically load your printer list rather
            # than setting them up individually then you’ll need this
            ; load printers = yes ← 行頭に;を追加(プリンタ共有無効化)※Sambaでプリンタを共有しない場合
            load printers = no ← 追加(プリンタ共有無効化)※Sambaでプリンタを共有しない場合
            disable spoolss = yes ← 追加(プリンタ共有無効化)※Sambaでプリンタを共有しない場合

            [kinryo]
            comment = 社員全員がアクセスできる
            path = /SmbData/kinryo
            public = yes
            writable = yes
            force group = kinryo
            force create mode = 770
            force directory mode = 770
            valid users = @kinryo
            #共有ディレクトリのごみ箱機能追加(ここから) ※ファイル削除時に自動的にごみ箱へ移動されるようにする
            vfs objects = recycle ← ごみ箱の有効化
            recycle:repository = .recycle ← ごみ箱のディレクトリ名
            recycle:keeptree = no ← ごみ箱へ移動時にディレクトリ構造を維持しない

            recycle:versions = yes ← 同名のファイルがごみ箱にある場合に別名で移動

            recycle:touch = no ← ごみ箱へ移動時にタイムスタンプを更新しない
            recycle:maxsize = 0 ← ごみ箱へ移動するファイルのサイズ上限(0:無制限)

            recycle:exclude = *.tmp ~$* ← ここで指定したファイルはごみ箱へ移動せずに即削除する
            共有ディレクトリのごみ箱機能追加(ここまで)

            [kinryo]の説明、部門毎はこのように作成。ユーザーを指定し、部門毎のグループを作っておく。又このグループはシステム上のグループである。先ずはグループを作る
            # groupadd 追加するグループ名
            次にユーザーをグループに入れる。下の -aG はオリジナルのグループは変更せず、新しいグループにも入れる設定
            # usermod -aG 所属するグループ名 ユーザー名
            これを繰り返し、同一ユーザーを複数のグループに所属させる事もできます。
            smb.confを変更したので
            # systemctl restart smb
            # systemctl restart nmb

            smb.conf に作ったdirectory を/SmbData の下に作る。ここではkinryo だけですが、各部門毎のdirectory を作って行きます。
            # cd /SmbData
            # mkdir smb.conf内に作ったdirectory名
            # chmod 770 smb.conf内に作ったdirectory名
            # chgrp -R グループ名 smb.conf内に作ったdirectory名
            これを作ったdirectory分繰り返します。

            これで、Windowからアクセス出来る筈です。
            ウィンドウアイコンの隣にある”ここに入力して検索”に
            \\192.168.11.65   (\は半角¥)
            と入力しエンターを押すと作ったグループホルダーが見える筈です。

              カテゴリー: DRBDに挑戦(CentOS7) | コメントする

              DRBDに挑戦;sambaのインストール:7(CentOS7)

              • DRBDをなぜ使うかと言うとsambaでファイルサーバーを作成し、そのデーター領域にdrbdを使用し、可用性を高めたいからです。と言うわけで先ずはsambaのインストール
              • 私はサブホストを作る時に(参照:DRBDに挑戦;サブホストの制作:1(CentOS7) )ファイルサーバーを入れていますので、何がインストール済みか調べます
                # yum list installed |grep samba
                samba.x86_64 4.10.4-11.el7_8 @updates
                samba-client.x86_64 4.10.4-11.el7_8 @updates
                samba-client-libs.x86_64 4.10.4-11.el7_8 @updates
                samba-common.noarch 4.10.4-11.el7_8 @updates
                samba-common-libs.x86_64 4.10.4-11.el7_8 @updates
                samba-common-tools.x86_64 4.10.4-11.el7_8 @updates
                samba-libs.x86_64 4.10.4-11.el7_8 @updates
                とこれらがインストールされていました。
              • それではsambaにアクセス出来るユーザーを新規で作成しますが、このユーザーはシステムに存在するユーザーである必要があります。先ずシステムにユーザーを追加
                # useradd test1
                # passwd test1
                次にsambaのユーザー作成(既にシステムに登録済のユーザーはここからで良い)
                # pdbedit -a test1
                入力するとパスワードを2回聞かれます。其の後情報が表示されます。
                Unix username: test1
                NT username:
                Account Flags: [U ]
                User SID: S-1-5-21-1141014914-2137130190-zzzzzzz-1000
                Primary Group SID: S-1-5-21-1141014914-21
                以下省略(UUIDは加工してあるよ)
              • ユーザー毎にディレクトリーを作る場合は http://centossrv.com/samba.shtml の(2)ホームディレクトリ作成を参照して下さい。私は部門毎しか作らないのでやりません。
              • 部門毎のdirectory の後からやります。
                カテゴリー: DRBDに挑戦(CentOS7) | コメントする

                DRBDに挑戦;sambaの起動:6(CentOS7)

                drbdの設定は終わったのですが、sambaの起動状況を判断してprimary, secondaryの切り替えを行いたいのですが、この方法が判りませんが、下記の方法でエラーが出ていないので、この設定を入れています。systemctl status smb 同様に nmb も行い起動していないことを確認、又、ststemctl disable smb 同様に nmb も行い、ホストの起動時に走らないようにする。
                # pcs resource create SAMBA systemd:smb –group smbgroup
                # pcs resource create NAMED systemd:nmb –group smbgroup
                #pcs status

                Cluster name: mycluster
                Stack: corosync
                Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) - partition with quorum
                Last updated: Sun Oct 18 08:14:05 2020
                Last change: Sun Oct 18 08:07:39 2020 by root via cibadmin on smb0
                
                2 nodes configured
                7 resources configured
                
                Online: [ smb0 smb1 ]
                
                Full list of resources:
                
                 Resource Group: smbgroup
                     vipcheck_res	(ocf::myres:VIPcheck):	Started smb0
                     VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb0
                     FS_DRBD0	(ocf::heartbeat:Filesystem):	Started smb0
                     SAMBA	(systemd:smb):	Started smb0
                     NAMED	(systemd:nmb):	Started smb0
                 Master/Slave Set: MS_DRBD0 [DRBD0]
                     Masters: [ smb0 ]
                     Slaves: [ smb1 ]
                
                Failed Resource Actions:
                * SAMBA_monitor_60000 on smb0 'not running' (7): call=44, status=complete, exitreason='',
                    last-rc-change='Sun Oct 18 08:07:08 2020', queued=0ms, exec=0ms
                
                Daemon Status:
                  corosync: active/enabled
                  pacemaker: active/enabled
                  pcsd: active/enabled

                SAMBA (systemd:smb): Started smb0 と NAMED (systemd:nmb): Started smb0 がある事を確認
                # systemctl stop smb
                # pcs status

                前略
                Resource Group: smbgroup
                     vipcheck_res	(ocf::myres:VIPcheck):	Started smb0
                     VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb0
                     FS_DRBD0	(ocf::heartbeat:Filesystem):	Started smb0
                     SAMBA	(systemd:smb):	FAILED smb0
                     NAMED	(systemd:nmb):	Stopped
                 Master/Slave Set: MS_DRBD0 [DRBD0]
                     Masters: [ smb0 ]
                     Slaves: [ smb1 ]
                
                Failed Resource Actions:
                * SAMBA_monitor_60000 on smb0 'not running' (7): call=56, status=complete, exitreason='',
                    last-rc-change='Sun Oct 18 08:21:13 2020', queued=0ms, exec=0ms
                
                Daemon Status:
                  corosync: active/enabled
                  pacemaker: active/enabled
                  pcsd: active/enabled
                

                smb0 が FAILED になっているが smb0 のままで、smb1 に移行しないが、少したって pcs status をやると smb0 が起動している。つまり少しの間 smb0 が落ちているが、自動的に再起動している。なのでいいとする。又、Failed Resource Actions: を消すには
                # pcs resource cleanup
                # pcs status
                で見るとエラーが消えている筈

                samba関連の設定ご存知なら是非、御教授ください。

                  カテゴリー: その他 | コメントする

                  DRBDに挑戦;drbdのインストール:5(CentOS7)

                  ELRepoリポジトリーのインストール
                  # rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm
                  DRBDのインストール
                  #
                  yum -y install kmod-drbd84

                  drbdに割り当てるディスクはLVMで作成しそれぞれ /dev/vdd になっている
                  DRBDリソース(r0.res)設定ファイルの作成
                  # gedit /etc/drbd.d/r0.res

                  resource r0 { ← DRBDリソース名をr0とする
                      device    /dev/drbd0;
                      meta-disk internal;
                      on smb0 { ← node1ホスト名(「uname -n」コマンドで表示される名前)
                          disk      /dev/vdd; ← node1論理ボリューム名
                          address   192.168.11.60:7780; ← node1IPアドレス
                      }
                      on smb2 { ← node2ホスト名(「uname -n」コマンドで表示される名前)
                          disk      /dev/vdd; ← node2論理ボリューム名
                          address   192.168.11.61:7780; ← node2IPアドレス
                      }
                  }

                  メタデーターの作成
                  # drbdadm create-md r0

                  md_offset 499826814976
                  al_offset 499826782208
                  bm_offset 499811528704

                  Found some data

                  ==> This might destroy existing data! <==
                  Do you want to proceed?
                  [need to type ‘yes’ to confirm]
                  yes

                  initializing activity log
                  initializing bitmap (14896 KB) to all zero
                  Writing meta data…
                  New drbd meta data block successfully created.
                  これは前に何か使用していたディスクなので、Do you want to proceed? と聞いているが、マッサラなディスクだと聞いてこない。
                  ここまでを smb1でもやる

                  drbdの起動
                  # systemctl start drbd
                  smb1も起動しないとプロンプトに戻ってこない。
                  また、ここまでをsmb1でもやる

                  DRBD確認
                  DRBDディスク初期同期スキップ(空ディスクの場合のみ)※ディスクにデータが格納されている場合はスキップしてはいけないが、メタデーターがインターなるだと、データーが壊されている事も考えられる
                  # drbdadm new-current-uuid –clear-bitmap r0/0
                  # cat /proc/drbd

                  version: 8.4.11-1 (api:1/proto:86-101)
                  GIT-hash: 66145a308421e9c124ec391a7848ac20203bb03c build by mockbuild@, 2020-04-05 02:58:18
                   0: cs:Connected ro:Secondary/Secondary ds:UpToDate/UpToDate C r-----
                      ns:0 nr:0 dw:0 dr:0 al:8 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0

                  cs が connected で、ro が両方共 Secondary(待機状態)になっている事。
                  smb1側でも行って同じになっている事。smb0側で
                  # drbdadm primary all
                  # cat /proc/drbd

                  前略
                   0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----
                  後略

                  roがPrimary/Secondaryになっている事。smb1側でも行ってroが Secondary/Primaryになっている事。smb0 で DRBDデバイス(/dev/drbd0)にファイルシステム作成
                  # mkfs.xfs /dev/drbd0

                  meta-data=/dev/drbd0             isize=512    agcount=4, agsize=30506075 blks
                           =                       sectsz=512   attr=2, projid32bit=1
                           =                       crc=1        finobt=0, sparse=0
                  data     =                       bsize=4096   blocks=122024299, imaxpct=25
                           =                       sunit=0      swidth=0 blks
                  naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
                  log      =internal log           bsize=4096   blocks=59582, version=2
                           =                       sectsz=512   sunit=0 blks, lazy-count=1
                  realtime =none                   extsz=4096   blocks=0, rtextents=0

                  # mount /dev/drbd0 /SmbData/
                  # df

                  devtmpfs           2006988       0   2006988    0% /dev
                  tmpfs              2022644   93032   1929612    5% /dev/shm
                  tmpfs              2022644    9764   2012880    1% /run
                  tmpfs              2022644       0   2022644    0% /sys/fs/cgroup
                  /dev/vda1         19520512 6486968  13033544   34% /
                  /dev/vdc          15718400 5144496  10573904   33% /Download
                  tmpfs               404532       4    404528    1% /run/user/42
                  tmpfs               404532      36    404496    1% /run/user/0
                  /dev/drbd0       487858868   32992 487825876    1% /SmbData

                  SmbDataにファイルを作って出来ているか確認
                  # touch /SmbData/test.txt
                  # ll /SmbData/
                  合計 0
                  -rw-r–r– 1 root root 0 10月 18 04:36 test.txt
                  次に、smb0をsecondayにし、smb1をprimaryにするが、マウントを外さないとならない
                  # umount /SmbData
                  dfでマウントされていない事を確認後
                  # drbdadm secondary all
                  smb1で
                  # drbdadm primary all
                  # cat /proc/drbd
                  で、ro:Secondary/Primary になっている事を確認後、マウントしdfでマウントされている事を確認後、llでファイルがsmb1にもあるか確認
                  # mount /dev/drbd0 /mnt
                  # df

                  <pre class="wp-block-code"><code><span style="color: #ff6600;">devtmpfs           2006988       0   2006988    0% /dev
                  tmpfs              2022644   93032   1929612    5% /dev/shm
                  tmpfs              2022644    9764   2012880    1% /run
                  tmpfs              2022644       0   2022644    0% /sys/fs/cgroup
                  /dev/vda1         19520512 6486968  13033544   34% /
                  /dev/vdc          15718400 5144496  10573904   33% /Download
                  tmpfs               404532       4    404528    1% /run/user/42
                  tmpfs               404532      36    404496    1% /run/user/0
                  /dev/drbd0       487858868   32992 487825876    1% /SmbData</span></code></pre>

                  # ll /SmbData
                  合計 0
                  -rw-r–r– 1 root root 0 10月 18 04:36 test.txt
                  そしてumount後、smb1をsecondaryにする
                  # umount /SmbData
                  # drbdadm secondary all
                  smb0をpromaryにし、
                  # drbdadm primary all
                  smb0とsmb1で cat /Proc/drbd を行いsmb0がprimary, smb1がsecondaryになっている事を確認

                  DRBDクラスタ化
                  グループ名は前にsmbgroupで定義している
                  # pcs resource create DRBD0 ocf:linbit:drbd drbd_resource=”r0″ –group smbgroup
                  DRBD0をmaster/slave※として設定
                  # pcs resource master MS_DRBD0 DRBD0 master-max=1 master-node-max=1 clone-max=2 clone-node-max=1 notify=true
                  DRBDのステータスをクリアー
                  # pcs resource cleanup MS_DRBD0
                  Cleaned up DRBD0:0 on smb1
                  Cleaned up DRBD0:0 on smb0
                  Cleaned up DRBD0:1 on smb1
                  Cleaned up DRBD0:1 on smb0
                  Waiting for 1 reply from the CRMd. OK
                  # pcs resource show

                   Resource Group: smbgroup
                       vipcheck_res	(ocf::myres:VIPcheck):	Started smb0
                       VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb0
                   Master/Slave Set: MS_DRBD0 [DRBD0]
                       Masters: [ smb0 ]
                       Slaves: [ smb1 ]

                  /dev/drbd0をxfs形式で/mntディレクトリへマウントするクラスタリソースをFS_DRBD0という名前で追加
                  # pcs resource create FS_DRBD0 ocf:heartbeat:Filesystem device=/dev/drbd0 directory=/SmbData fstype=xfs –group smbgroup
                  # pcs resource show

                   Resource Group: smbgroup
                       vipcheck_res	(ocf::myres:VIPcheck):	Started smb0
                       VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb0
                       FS_DRBD0	(ocf::heartbeat:Filesystem):	Started smb0
                   Master/Slave Set: MS_DRBD0 [DRBD0]
                       Masters: [ smb0 ]
                       Slaves: [ smb1 ]

                  FS_DRBD0があることを確認
                  DRBDがmaster側のノードでリソースグループ(smbgroup)を起動する
                  # pcs constraint order promote MS_DRBD0 then start smbgroup
                  Adding MS_DRBD0 smbgroup (kind: Mandatory) (Options: first-action=promote then-action=start)
                  DRBDがMaster側のノードでFS_DRBD0リソースを起動する
                  # pcs constraint colocation add FS_DRBD0 MS_DRBD0 INFINITY with-rsc-role=Master
                  # pcs constraint order promote MS_DRBD0 then start FS_DRBD0
                  Adding MS_DRBD0 FS_DRBD0 (kind: Mandatory) (Options: first-action=promote then-action=start)
                  smb0とsmb1で df をやって、smb0でSmbDataがマウントされていて、smb1側ではマウントされていない事を確認。smb0をhalt
                  # halt -p
                  smb1側で
                  # pcs status

                  Cluster name: mycluster
                  Stack: corosync
                  Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) - partition with quorum
                  Last updated: Sun Oct 18 07:11:48 2020
                  Last change: Sun Oct 18 07:02:15 2020 by root via cibadmin on smb0
                  
                  2 nodes configured
                  5 resources configured
                  
                  Online: [ smb1 ]
                  OFFLINE: [ smb0 ]
                  
                  Full list of resources:
                  
                   Resource Group: smbgroup
                       vipcheck_res	(ocf::myres:VIPcheck):	Started smb1
                       VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb1
                       FS_DRBD0	(ocf::heartbeat:Filesystem):	Started smb1
                   Master/Slave Set: MS_DRBD0 [DRBD0]
                       Masters: [ smb1 ]
                       Stopped: [ smb0 ]
                  
                  Daemon Status:
                    corosync: active/enabled
                    pacemaker: active/enabled
                    pcsd: active/enabled
                  

                  smb0がofflineでsmb1がマスターになっていることを確認
                  # df
                  で SmbData がマウントされている事を確認後
                  smb0起動し、pcs statusで両方共オンラインになっている事、マスターはまだ smb1であることを確認
                  # pcs cluster standby smb1
                  # pcs status
                  で smb0 がマスターになっている事を確認
                  # pcs cluster unstandby smb1
                  # pcs status
                  で両方がオンラインになっている事を確認
                  # df
                  で smb0側にSmbDataがマウントされている事を確認

                    カテゴリー: DRBDに挑戦(CentOS7) | コメントする

                    DRBDに挑戦;Pacemaker+Corosync+pcsのインストール:4(CentOS7)

                    ここからやっとHAクラスターの設定に入ります。私は勉強の為にdrbdを同じメインホストのサブホストにやっていますが、本来なら物理的に違うマシンにやるべきです。
                    例によって http://centossrv.com/pacemaker.shtml を参考に設定して行きます。
                    前提条件として2つのサーバーを
                    ホスト名:smb1 IP:192.168.11.60
                    ホスト名:smb2 IP:192.168.11.61
                    仮想IPアドレス 192.168.11.65
                    とし、先ずはホスト名を /etc/hosts の記入します
                    # echo 192.168.11.60 smb1 >> /etc/hosts
                    # echo 192.168.11.60 smb1 >> /etc/hosts
                    必要なプログラムをインストールとpcsdの起動
                    # yum -y install pacemaker corosync pcs
                    # systemctl start pcsd
                    # systemctl enable pcsd
                    次にクラスターの作成
                    # passwd hacluster
                    パスワード2回聞かれるので、入力
                    ここまでを smb0,  smb1の両方で行う。ここからはsmb0で
                    # pcs cluster auth smb0 smb1 -u hacluster
                    パスワード聞かれるので入力
                    smb0: Authorized
                    smb1: Authorized
                    # pcs cluster setup –name mycluster smb0 smb1 –force
                    smb0: Stopping Cluster (pacemaker)…
                    smb1: Stopping Cluster (pacemaker)…
                    smb0: Successfully destroyed cluster
                    smb1: Successfully destroyed cluster

                    Sending ‘pacemaker_remote authkey’ to ‘smb0’, ‘smb1’
                    smb1: successful distribution of the file ‘pacemaker_remote authkey’
                    smb0: successful distribution of the file ‘pacemaker_remote authkey’
                    Sending cluster config files to the nodes…
                    smb0: Succeeded
                    smb1: Succeeded

                    Synchronizing pcsd certificates on nodes smb0, smb1…
                    smb0: Success
                    smb1: Success
                    Restarting pcsd on the nodes in order to reload the certificates…
                    smb0: Success
                    smb1: Success
                    クラスターノードの起動、自動起動設定、ステイタス確認
                    #
                    pcs cluster start –all
                    smb0: Starting Cluster (corosync)…
                    smb1: Starting Cluster (corosync)…
                    smb0: Starting Cluster (pacemaker)…
                    smb1: Starting Cluster (pacemaker)…
                    # pcs cluster enable –all
                    smb0: Cluster Enabled
                    smb1: Cluster Enabled
                    # pcs status
                    Cluster name: mycluster

                    WARNINGS:
                    No stonith devices and stonith-enabled is not false

                    Stack: corosync
                    Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) – partition with quorum
                    Last updated: Sat Oct 17 15:14:31 2020
                    Last change: Sat Oct 17 15:08:48 2020 by hacluster via crmd on smb1

                    2 nodes configured
                    0 resources configured

                    Online: [ smb0 smb1 ]    → smb0, smb1  Onlineを確認

                    No resources

                    Daemon Status:
                    corosync: active/enabled
                    pacemaker: active/enabled
                    pcsd: active/enabled

                    pcs statusをsmb1でも確認する

                    DRBDのアクセスに使用する仮想IPアドレスの設定(smb1でもやる)
                    # rpm -ivh –nodeps https://osdn.jp/dl/linux-ha/hb-extras-1.02-1.x86_64.rpm
                    https://osdn.jp/dl/linux-ha/hb-extras-1.02-1.x86_64.rpm を取得中
                    準備しています… ################################# [100%]
                    更新中 / インストール中…
                    1:hb-extras-1.02-1 ################################# [100%]
                    ln: シンボリックリンク `/usr/lib64/stonith/plugins/external/stonith-wrapper’ の作成に失敗しました: そのようなファイルやディレクトリはありません
                    警告: %post(hb-extras-1.02-1.x86_64) スクリプトの実行に失敗しました。終了ステータス 1
                    終了ステータス が1で終わっていますが大丈夫みたい。
                    # mkdir /usr/lib/ocf/resource.d/myres
                    # cp /usr/lib64/heartbeat/hb-extras/VIPcheck /usr/lib/ocf/resource.d/myres/
                    VIPcheckリソースエージェント起動
                    # pcs resource create vipcheck_res ocf:myres:VIPcheck target_ip=192.168.11.17 count=1 wait=10 –group smbgroup
                    stonithを無効化
                    # pcs property set stonith-enabled=false
                    2ノード構成のためquorumを無効化
                    # pcs property set no-quorum-policy=ignore
                    ここまでをsmb1でも行う。

                    仮想IPアドレス設定
                    # pcs resource create VirtualIP IPaddr2 ip=192.168.11.65 cidr_netmask=24 op monitor interval=30s –group smbgroup
                    Assumed agent name ‘ocf:heartbeat:IPaddr2’ (deduced from ‘IPaddr2’)
                    リソース確認
                    # pcs resource show
                    Resource Group: smbgroup
                    vipcheck_res (ocf::myres:VIPcheck): Started smb0
                    VirtualIP (ocf::heartbeat:IPaddr2): Started smb0
                    仮想IPアドレス通信確認
                    # ping -c 1 192.168.11.65
                    PING 192.168.11.65 (192.168.11.65) 56(84) bytes of data.
                    64 bytes from 192.168.11.65: icmp_seq=1 ttl=64 time=0.062 ms

                    — 192.168.11.65 ping statistics —
                    1 packets transmitted, 1 received, 0% packet loss, time 0ms
                    rtt min/avg/max/mdev = 0.062/0.062/0.062/0.000 ms
                    これをsmb1でも行う。

                    フェイルオーバーが正常に働くか確認
                    smb0で
                    # halt
                    smb1で
                    # pcs status
                    Cluster name: mycluster
                    Stack: corosync
                    Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) – partition with quorum
                    Last updated: Sat Oct 17 16:52:51 2020
                    Last change: Sat Oct 17 16:51:00 2020 by hacluster via crmd on smb1

                    2 nodes configured
                    2 resources configured

                    Online: [ smb1 ]
                    OFFLINE: [ smb0 ]

                    Full list of resources:

                    Resource Group: smbgroup
                    vipcheck_res (ocf::myres:VIPcheck): Started smb1
                    VirtualIP (ocf::heartbeat:IPaddr2): Started smb1

                    Daemon Status:
                    corosync: active/enabled
                    pacemaker: active/enabled
                    pcsd: active/enabled
                    pink所を確認。この時
                    Failed Resource Actions:
                    * vipcheck_res_monitor_0 on smb1 ‘not installed’ (5): call=5, status=Not installed, exitreason=”,
                    等のエラーがあった場合は、原因を除いてから
                    # pcs resource cleanup
                    でエラー表示を消去する
                    。smb1でping確認すること
                    smb0を起動する。pcs status をやってもsmb0はonlineになっているがまだsmb1側が動いている。smb0側でsmb1をスタンバイにして、smb0に移るか確認
                    # pcs cluster standby smb1
                    # pcs status
                    Cluster name: mycluster
                    Stack: corosync
                    Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) – partition with quorum
                    Last updated: Sat Oct 17 17:24:11 2020
                    Last change: Sat Oct 17 17:24:04 2020 by root via cibadmin on smb0

                    2 nodes configured
                    2 resources configured

                    Node smb1: standby
                    Online: [ smb0 ]

                    Full list of resources:

                    Resource Group: smbgroup
                    vipcheck_res (ocf::myres:VIPcheck): Started smb0
                    VirtualIP (ocf::heartbeat:IPaddr2): Started smb0

                    Daemon Status:
                    corosync: active/enabled
                    pacemaker: active/enabled
                    pcsd: active/enabled
                    smb1を復帰させる
                    #
                    pcs cluster unstandbysmb1
                    smb0, smb1がonlineになっていることを確認。
                    smb0, smb1の両方で仮想IPアドレスにping が通るか確認

                     

                      カテゴリー: DRBDに挑戦(CentOS7) | コメントする