まず、私はLinuxの専門家ではありません。チュートリアルに従っていて、Googleの助けを借りて作業してきましたが、これは今まで問題なく動作しましたが、現在、問題が発生しています。
私はCentOS 6.5とDRBDバージョン8.4.4を使用しています。
私は2つのノードでペースメーカーを実行していますが、これまでのところすべてが機能しています。DRBDをセットアップし、手動でノードをプライマリとして設定してDRBDリソースをマウントすることで、これも機能します。
ここで、DRBDを制御するペースメーカーリソースを作成しましたが、2つのノードのいずれもマスターに昇格できず、マウントもできません。
pcsステータスは次のようになります。
Cluster name: hydroC
Last updated: Wed Jun 25 14:19:49 2014
Last change: Wed Jun 25 14:02:25 2014 via crm_resource on hynode1
Stack: cman
Current DC: hynode1 - partition with quorum
Version: 1.1.10-14.el6_5.3-368c726
2 Nodes configured
4 Resources configured
Online: [ hynode1 hynode2 ]
Full list of resources:
ClusterIP (ocf::heartbeat:IPaddr2): Started hynode1
Master/Slave Set: MSdrbdDATA [drbdDATA]
Slaves: [ hynode1 hynode2 ]
ShareDATA (ocf::heartbeat:Filesystem): Stopped
マスターがないため、ShareDataは停止したままです
私は最初にこのチュートリアルに従いました:
http://clusterlabs.org/doc/en-US/Pacemaker/1.1-pcs/html/Clusters_from_Scratch/_configure_the_cluster_for_drbd.html
これは、pacemaker構成がどのように見えるかです。
Cluster Name: hydroC
Corosync Nodes:
Pacemaker Nodes:
hynode1 hynode2
Resources:
Resource: ClusterIP (class=ocf provider=heartbeat type=IPaddr2)
Attributes: ip=10.0.0.100 cidr_netmask=32
Operations: monitor interval=30s (ClusterIP-monitor-interval-30s)
Master: MSdrbdDATA
Meta Attrs: master-max=1 master-node-max=1 clone-max=2 clone-node-max=1 notify
=true
Resource: drbdDATA (class=ocf provider=linbit type=drbd)
Attributes: drbd_resource=r0
Operations: monitor interval=60s (drbdDATA-monitor-interval-60s)
Resource: ShareDATA (class=ocf provider=heartbeat type=Filesystem)
Attributes: device=/dev/drbd3 directory=/share/data fstype=ext4
Operations: monitor interval=60s (ShareDATA-monitor-interval-60s)
Stonith Devices:
Fencing Levels:
Location Constraints:
Ordering Constraints:
promote MSdrbdDATA then start ShareDATA (Mandatory) (id:order-MSdrbdDATA-Share
DATA-mandatory)
Colocation Constraints:
ShareDATA with MSdrbdDATA (INFINITY) (with-rsc-role:Master) (id:colocation-Sha
reDATA-MSdrbdDATA-INFINITY)
Cluster Properties:
cluster-infrastructure: cman
dc-version: 1.1.10-14.el6_5.3-368c726
no-quorum-policy: ignore
stonith-enabled: false
それ以来、ロケーション制約の設定や別のリソース設定の使用など、さまざまなことを試しました...別のチュートリアルからこれを取得しました:
Master: MSdrbdDATA
Meta Attrs: master-max=1 master-node-max=1 clone-max=2 notify=true target-role
=Master is-managed=true clone-node-max=1
Resource: drbdDATA (class=ocf provider=linbit type=drbd)
Attributes: drbd_resource=r0 drbdconf=/etc/drbd.conf
Meta Attrs: migration-threshold=2
Operations: monitor interval=60s role=Slave timeout=30s (drbdDATA-monitor-int
erval-60s-role-Slave)
monitor interval=59s role=Master timeout=30s (drbdDATA-monitor-in
terval-59s-role-Master)
start interval=0 timeout=240s (drbdDATA-start-interval-0)
stop interval=0 timeout=240s (drbdDATA-stop-interval-0)
しかし結果は同じままで、どのノードもマスターに昇格されません。
解決策へのご案内をよろしくお願いいたします。
DRBDデバイスが正常であることを確認してください。もし、あんたが # cat /proc/drbd
とその状態を見て、次のことがわかりますか:cs:Connected
、ro:Secondary/Secondary
、 最も重要な、 ds:UpToDate/UpToDate
?
UpToDate
データがない場合、DRBDのリソースエージェントはデバイスを昇格しません。 justがデバイスのメタデータを作成し、単一のノードをPrimary
ロールにまだ強制していない場合、ディスクの状態は次のようになります:ds:Inconsistent/Inconsistent
。次のコマンドを実行して、クラスターのSyncSource
になるノードをDRBDに指示する必要があります。# drbdadm primary r0 --force
通常の状況でDRBDをプライマリに強制する必要があるのはこのときだけです。 --force
その後のフラグ;)