GlusterFSを使用して、4台のマシンにわたってボリュームを作成およびマウントしています。たとえば、マシンがmachine1
、machine2
、machine3
およびmachine4
であるとします。
私の仲間はすでにうまく調査されています。
次のコマンドを使用してボリュームを作成しました。
Sudo gluster volume create ssl replica 2 transport tcp machine1:/srv/gluster/ssl machine2:/srv/gluster/ssl machine3:/srv/gluster/ssl machine4:/srv/gluster/ssl force
次に、ボリュームを次のように開始します。
Sudo gluster volume start ssl
次のコマンドを使用して、ディレクトリ/myproject/ssl
をマウントしました。
Sudo mount -t glusterfs machine1:/ssl /myproject/ssl
各マシンにマウントすると、すべてが期待どおりに機能し、/myproject/ssl
ディレクトリにはすべてのマシンでデータが共有されます。
問題は、地球上でこれをどのようにしてAnsibleの方法で行うかです。
これらの2つのコマンドをAnsibleの方法で実行しようとする私の試みは次のとおりです。
- name: Configure Gluster volume.
gluster_volume:
state: present
name: "{{ gluster.brick_name }}"
brick: "{{ gluster.brick_dir }}"
replicas: 2
cluster: "{{ groups.glusterssl | join(',') }}"
Host: "{{ inventory_hostname }}"
force: yes
become: true
become_user: root
become_method: Sudo
run_once: true
ignore_errors: true
- name: Ensure Gluster volume is mounted.
mount:
name: "{{ gluster.brick_name }}"
src: "{{ inventory_hostname }}:/{{ gluster.brick_name }}"
fstype: glusterfs
opts: "defaults,_netdev"
state: mounted
become: true
become_user: root
become_method: Sudo
ピアプローブが前のタスクですでに成功を返しているにもかかわらず、Configure Gluster volume
タスクは次のエラーで失敗します:
fatal: [machine3]: FAILED! =>
{"changed": false,
"failed": true,
"invocation": {
"module_args": {
"brick": "/srv/gluster/ssl",
"bricks": "/srv/gluster/ssl",
"cluster": ["machine1", "machine2", "machine3", "machine4"],
"directory": null,
"force": true,
"Host": "machine3",
"name": "ssl",
"options": {},
"quota": null,
"rebalance": false,
"replicas": 2,
"start_on_create": true,
"state": "present",
"stripes": null,
"transport": "tcp"},
"module_name": "gluster_volume"},
"msg": "failed to probe peer machine1 on machine3"}
このAnsibleタスクを最初に提案したシェルコマンドで置き換えると、すべてが正常に機能しますが、Ensure Gluster volume is mounted
は次のように失敗します。
fatal: [machine3]: FAILED! =>
{"changed": false,
"failed": true,
"invocation": {
"module_args": {
"dump": null,
"fstab": "/etc/fstab",
"fstype": "glusterfs",
"name": "ssl", "opts":
"defaults,_netdev",
"passno": null, "src":
"machine3:/ssl",
"state": "mounted"},
"module_name": "mount"},
"msg": "Error mounting ssl: Mount failed. Please check the log file for more details.\n"}
関連するログ出力は次のとおりです。
[2016-10-17 09:10:25.602431] E [MSGID: 114058] [client-handshake.c:1524:client_query_portmap
_cbk] 2-ssl-client-3: failed to get the port number for remote subvolume. Please run 'gluster volume status' on server to see if brick process is running.
[2016-10-17 09:10:25.602480] I [MSGID: 114018] [client.c:2042:client_rpc_notify] 2-ssl-client-3: disconnected from ssl-client-3. Client process will keep trying to connect to glusterd until brick's port is available
[2016-10-17 09:10:25.602500] E [MSGID: 108006] [afr-common.c:3880:afr_notify] 2-ssl-replicate-1: All subvolumes are down. Going offline until atleast one of them comes back up.
[2016-10-17 09:10:25.616402] I [Fuse-bridge.c:5137:Fuse_graph_setup] 0-Fuse: switched to graph 2
そのため、ボリュームはAnsibleタスクによって開始されません。
私の質問は、基本的に、上記の3つのコマンドを使ってAnsibleで行ったのと同じ方法でボリュームを作成、マウント、および起動するにはどうすればよいですか?
ボリュームはstate: started
で始める必要があります。
- name: Configure Gluster volume.
gluster_volume:
state: started
name: "{{ gluster.brick_name }}"
brick: "{{ gluster.brick_dir }}"
replicas: 2
cluster: "{{ groups.glusterssl | join(',') }}"
Host: "{{ inventory_hostname }}"
force: yes
become: true
become_user: root
become_method: Sudo
run_once: true
ignore_errors: true