web-dev-qa-db-ja.com

再起動後にNFSサーバーが共有を提供しない

2つのLinodeコンテナーがあります。ボックスAは私たちの汎用Webサーバーです。 NFSサーバーとして設定されているBox Bにアクセスする必要がある場合があります。

ボックスBが再起動すると、ボックスAは私が何をしてもNFS共有にアクセスできません。数時間のトラブルシューティングの後、私はようやくそれを単一ステップの修正に絞り込むことができました。

ボックスBの再起動後:

$ Sudo service nfs restart

これらはどちらも最新のCentOS 6.8ボックスです。 NFS関連のパッケージはすべてyum経由でインストールされたと思います。すべてをセットアップするのにいくつかの問題がありました。これはスムーズなプロセスではありませんでしたが、nfsサービスを再起動した後、すべてが正常に動作しました。

もし私が

$ Sudo service --status-all

再起動を発行する前と後で違いはありません。多分それはタイミングの問題ですか?しかし、私はこれをトラブルシューティングし始める方法すら知りません。私に何ができる?

その他の注意事項:

  • Autofsを使用して、ボックスAからオンデマンドで共有を自動的にマウントしていますが、共有も手動でマウントされません。

  • 私はWindowsとMacのデスクトップとサーバーで日々を過ごしていますが、LinuxでWebサイトを長年実行しています。私はやらなければならないことは得意ですが、それは私の快適さの分野ではなく、新しいことをする方法をググググするのに多くの時間を費やしています。

どこをチェックすればいいのか分からない。ログには明らかなものは何もありませんでしたが、何を探すべきか教えてください。投稿します。

更新

ボックスB:

 [shorowitz@BoxB ~]$ Sudo chkconfig --list nfs
 nfs                0:off   1:off   2:on    3:on    4:on    5:on    6:off
 [shorowitz@BoxB ~]$ Sudo chkconfig --list nfslock
 nfslock            0:off   1:off   2:on    3:on    4:on    5:on    6:off

アップデート2

BoxBを新たに再起動した後、

$ Sudo showmount -e BoxB

boxAから、予想されるマウントポイントが表示されますが、マウントできません。 BoxBでNFSを再起動するだけ

 $ Sudo service nfs restart
 Shutting down NFS daemon:                                  [  OK  ]
 Shutting down NFS mountd:                                  [  OK  ]
 Shutting down NFS services:                                [  OK  ]
 Shutting down RPC idmapd:                                  [  OK  ]
 FATAL: Module nfsd not found.
 FATAL: Error running install command for nfsd
 Starting NFS services:                                     [  OK  ]
 Starting NFS mountd:                                       [  OK  ]
 Starting NFS daemon:                                       [  OK  ]
 Starting RPC idmapd:                                       [  OK  ]

マウントはBoxAですぐに利用できます。これらの致命的なエラーは、NFSがすでに機能している場合、その後の再起動でも表示されるため、それらがどの程度関連しているかはわかりません(すでに投稿したと思います)。

追加のログ情報

11月15日9:29にリブートコマンドを発行しました

 grep -i "nfs" /var/log/message*
 messages:Nov 15 09:29:08 BoxB kernel: nfsd: last server has exited, flushing export cache
 messages:Nov 15 09:29:54 BoxB kernel: RPC: Registered tcp NFSv4.1 backchannel transport module.
 messages:Nov 15 09:29:54 BoxB kernel: FS-Cache: Netfs 'nfs' registered for caching
 messages:Nov 15 09:29:54 BoxB kernel: NFS: Registering the id_resolver key type
 messages:Nov 15 09:29:54 BoxB kernel: nfs4filelayout_init: NFSv4 File Layout Driver Registering...
 messages:Nov 15 09:29:54 BoxB kernel: Installing knfsd (copyright (C) 1996 [email protected]).
 messages:Nov 15 09:29:54 BoxB kernel: xenfs: not registering filesystem on non-xen platform
 messages:Nov 15 09:29:54 BoxB rpc.mountd[2740]: NFS v4 mounts will be disabled unless fsid=0
 messages:Nov 15 09:29:54 BoxB kernel: NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory
 messages:Nov 15 09:29:54 BoxB kernel: NFSD: starting 90-second grace period (net ****************)
 messages:Nov 15 09:33:39 BoxB kernel: nfsd: last server has exited, flushing export cache
 messages:Nov 15 09:33:40 BoxB kernel: NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory
 messages:Nov 15 09:33:40 BoxB kernel: NFSD: starting 90-second grace period (net ****************)

更新3:

BoxB

 [shorowitz@BoxB ~]$ Sudo chkconfig --list | egrep "nfs|rpc"
 nfs                0:off   1:off   2:on    3:on    4:on    5:on    6:off
 nfslock            0:off   1:off   2:on    3:on    4:on    5:on    6:off
 rpcbind            0:off   1:off   2:on    3:on    4:on    5:on    6:off
 rpcgssd            0:off   1:off   2:off   3:on    4:on    5:on    6:off
 rpcsvcgssd         0:off   1:off   2:off   3:off   4:off   5:off   6:off

 [shorowitz@BoxB ~]$ Sudo iptables --list -n -v
 Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
     0     0 ACCEPT     all  --  lo     *       0.0.0.0/0            0.0.0.0/0           
     0     0 REJECT     all  --  !lo    *       127.0.0.0/8          0.0.0.0/0           reject-with icmp-port-unreachable 
    18   710 ACCEPT     icmp --  *      *       0.0.0.0/0            0.0.0.0/0           state NEW icmp type 8 
   471 26200 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:22 state NEW 
  204K  393M ACCEPT     all  --  *      *       {BoxA IP}            0.0.0.0/0           
  6721  754K ACCEPT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           state RELATED,ESTABLISHED 
  2859  168K LOG        all  --  *      *       0.0.0.0/0            0.0.0.0/0           limit: avg 5/min burst 5 LOG flags 0 level 7 prefix `iptables_INPUT_denied: ' 
  9229  628K REJECT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           reject-with icmp-port-unreachable 

 Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
     0     0 LOG        all  --  *      *       0.0.0.0/0            0.0.0.0/0           limit: avg 5/min burst 5 LOG flags 0 level 7 prefix `iptables_FORWARD_denied: ' 
     0     0 REJECT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           reject-with icmp-port-unreachable 

 Chain OUTPUT (policy ACCEPT 278K packets, 8386M bytes)
  pkts bytes target     prot opt in     out     source               destination        

 [shorowitz@BoxB ~]$ Sudo rpcinfo -p
program vers proto   port  service
 100000    4   tcp    111  portmapper
 100000    3   tcp    111  portmapper
 100000    2   tcp    111  portmapper
 100000    4   udp    111  portmapper
 100000    3   udp    111  portmapper
 100000    2   udp    111  portmapper
 100024    1   udp  38148  status
 100024    1   tcp  45681  status
 100005    1   udp  37846  mountd
 100005    1   tcp  59259  mountd
 100005    2   udp  59934  mountd
 100005    2   tcp  42645  mountd
 100005    3   udp  33867  mountd
 100005    3   tcp  41823  mountd
 100003    2   tcp   2049  nfs
 100003    3   tcp   2049  nfs
 100003    4   tcp   2049  nfs
 100227    2   tcp   2049  nfs_acl
 100227    3   tcp   2049  nfs_acl
 100003    2   udp   2049  nfs
 100003    3   udp   2049  nfs
 100003    4   udp   2049  nfs
 100227    2   udp   2049  nfs_acl
 100227    3   udp   2049  nfs_acl
 100021    1   udp  37287  nlockmgr
 100021    3   udp  37287  nlockmgr
 100021    4   udp  37287  nlockmgr
 100021    1   tcp  37579  nlockmgr
 100021    3   tcp  37579  nlockmgr
 100021    4   tcp  37579  nlockmgr

これは何も返しません:

 grep -v "^#" /etc/sysconfig/nfs

BoxA

 $ chkconfig --list | egrep "nfs|rpc"
 nfs                0:off   1:off   2:on    3:on    4:on    5:on    6:off
 nfslock            0:off   1:off   2:on    3:on    4:on    5:on    6:off
 rpcbind            0:off   1:off   2:on    3:on    4:on    5:on    6:off
 rpcgssd            0:off   1:off   2:off   3:on    4:on    5:on    6:off
 rpcsvcgssd         0:off   1:off   2:off   3:off   4:off   5:off   6:off

 $ iptables --list -n -v
 Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
  390K   58M ACCEPT     all  --  lo     *       0.0.0.0/0            0.0.0.0/0           
     0     0 REJECT     all  --  *      *       0.0.0.0/0            127.0.0.0/8         reject-with icmp-port-unreachable 
  990K 7850M ACCEPT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           state RELATED,ESTABLISHED 
     0     0 DROP       all  --  *      *       43.255.188.145       0.0.0.0/0           
     8   388 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:587 
 11864  608K ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:25 
     1    40 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:636 
  4545  238K ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:80 
  9759  553K ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:443 
    24   960 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           tcp dpt:8080 
   320 19152 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0           state NEW tcp dpt:22 
    85  5681 ACCEPT     icmp --  *      *       0.0.0.0/0            0.0.0.0/0           
  3254  194K LOG        all  --  *      *       0.0.0.0/0            0.0.0.0/0           limit: avg 5/min burst 5 LOG flags 0 level 7 prefix `iptables denied: ' 
  3634  227K DROP       all  --  *      *       0.0.0.0/0            0.0.0.0/0           

 Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
     0     0 DROP       all  --  *      *       0.0.0.0/0            0.0.0.0/0           

 Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
  pkts bytes target     prot opt in     out     source               destination         
 1360K 1907M ACCEPT     all  --  *      *       0.0.0.0/0            0.0.0.0/0           

 $ rpcinfo -p
program vers proto   port  service
 100000    4   tcp    111  portmapper
 100000    3   tcp    111  portmapper
 100000    2   tcp    111  portmapper
 100000    4   udp    111  portmapper
 100000    3   udp    111  portmapper
 100000    2   udp    111  portmapper
 100024    1   udp  55882  status
 100024    1   tcp  58283  status
 100011    1   udp    875  rquotad
 100011    2   udp    875  rquotad
 100011    1   tcp    875  rquotad
 100011    2   tcp    875  rquotad
 100005    1   udp  43136  mountd
 100005    1   tcp  55047  mountd
 100005    2   udp  51117  mountd
 100005    2   tcp  42791  mountd
 100005    3   udp  44511  mountd
 100005    3   tcp  46535  mountd
 100003    2   tcp   2049  nfs
 100003    3   tcp   2049  nfs
 100003    4   tcp   2049  nfs
 100227    2   tcp   2049  nfs_acl
 100227    3   tcp   2049  nfs_acl
 100003    2   udp   2049  nfs
 100003    3   udp   2049  nfs
 100003    4   udp   2049  nfs
 100227    2   udp   2049  nfs_acl
 100227    3   udp   2049  nfs_acl
 100021    1   udp  43509  nlockmgr
 100021    3   udp  43509  nlockmgr
 100021    4   udp  43509  nlockmgr
 100021    1   tcp  38725  nlockmgr
 100021    3   tcp  38725  nlockmgr
 100021    4   tcp  38725  nlockmgr

 $ mount | grep nfs
 nfsd on /proc/fs/nfsd type nfsd (rw)
 sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

11月14日更新

 BoxA:

 $ cat /etc/auto.master.d/nfs
 xdata  -rw boxb:/srv/nfs/xdata
 xbackup    -rw boxb:/srv/nfs/xbackup
 zbackups   -rw boxb:/srv/nfs/zbackups

 $ mount | grep nfs
 mount |grep nfs
 nfsd on /proc/fs/nfsd type nfsd (rw)
 sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
 boxb:/srv/nfs/xdata on /mnt/nfs/xdata type nfs (rw,sloppy,vers=4,addr={boxb ip},clientaddr={boxa ip})
5
samh

質問をさらに詳しい情報で更新できますか?
NFSサーバーで実行

chkconfig --list | egrep "nfs|rpc"
iptables --list -n -v
rpcinfo -p

Nfsサーバーの設定がカスタマイズされていない場合、次は何も返さないはずです。

grep -v "^#" /etc/sysconfig/nfs

ただし、iptablesを実行している場合は、カスタマイズする必要があります。こちらをご覧ください
https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Storage_Administration_Guide/s2-nfs-nfs-firewall-config.html

あなたのクライアントで

chkconfig --list | egrep "nfs|rpc"
iptables --list -n -v
rpcinfo -p
mount | grep nfs

NFSV2またはNFSV3を実行している場合は、クライアントでnfslockも実行する必要があります

https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Storage_Administration_Guide/s1-nfs-start.html

NFSの起動時に出力で奇妙に見えるもの-これは次の行ですか

FATAL: Module nfsd not found.
 FATAL: Error running install command for nfsd

そして、私は1つのことに気づきました-あなたがopenvzで実行しているので-以下のリンクはあなたの状況に適用されます。これが役立つかどうかを確認してください

https://openvz.org/NFS_server_inside_container

編集1:今日、openvzコンテナでテストを実行しました。
表示されるメッセージ

FATAL: Module nfsd not found.
FATAL: Error running install command for nfsd

無害です。ここで説明します https://openvz.org/NFS_server_inside_container

問題を再現できませんでした。 nfsサーバーの再起動後-nfsクライアントは引き続きファイルの参照、新しいファイルの作成、nfs共有からのファイルの削除を行うことができました。

自動マウント構成と次の出力を投稿できますか?

mount|grep nfs

あなたがすでにしたボックスAから。しかし、自動マウントされたファイルシステムがマウント解除されているときに、それを行いました。したがって、ボックスAで、自動マウントされたディレクトリにcdしてから、上記のコマンドを実行します。これにより、マウント時に使用されたオプションに関する情報が提供されます。

また、次にボックスBを再起動したときに、この自動マウントの問題が発生している-サイトAからこのコマンドを実行する

netstat -anp|grep ipofB

これにより、関連するポートに関する情報が得られます。
このような状況では、BとAのtcpdumpを収集することも有効です。
私はあなたの設定には何も問題がないと思う傾向があります-しかし、vzhostsのiptablesで何か奇妙なことが起こっています。コンテナの中ではなく、ホスト上にあります。

ホストAにnmapをインストールし、問題が発生したときにも実行できます。ホストBをスキャンして、Aの観点から開いているポートを確認します(netstatまたはssを提案している場合もありますが、この場合、コンテナーの前にopenvz Hostファイアウォールもあり、それらが何かをブロックしているかどうかはわかりません)

編集2(11月25日)マウントオプションがおかしい

出力を比較する

$ mount | grep nfs
 mount |grep nfs
 nfsd on /proc/fs/nfsd type nfsd (rw)
 sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
 boxb:/srv/nfs/xdata on /mnt/nfs/xdata type nfs (rw,sloppy,vers=4,addr={boxb ip},clientaddr={boxa ip}) 

以下の鉱山に。これが私の/etc/auto.miscです。 6行目がデフォルトです。追加した行16

[root@vznfsclient /]# egrep -vn "^#|^$" /etc/auto.misc
6:cd            -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom
16:nfs          -fstype=nfs             192.168.0.54:/nfs_export

/ misc/nfsにcdすると、共有がマウントされます。しかし、12行目のデフォルトオプションを見てください。

[root@vznfsclient ~]# mount|egrep -n "nfs|auto"
4:nfsd on /proc/fs/nfsd type nfsd (rw,relatime)
5:sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
10:/etc/auto.misc on /misc type autofs (rw,relatime,fd=6,pgrp=768,timeout=300,minproto=5,maxproto=5,indirect)
11:-hosts on /net type autofs (rw,relatime,fd=12,pgrp=768,timeout=300,minproto=5,maxproto=5,indirect)
12:192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountvers=3,mountport=42089,mountproto=udp,local_lock=none,addr=192.168.0.54) 

最初はnfsv3で、udpを使用しています。 Ok udp /etc/auto.miscをこれに変更することでtcpに変更できます

[root@vznfsclient /]# egrep -vn "^#|^$" /etc/auto.misc
6:cd            -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom
16:nfs          -fstype=nfs,proto=tcp   192.168.0.54:/nfs_export

マウントオプションは次のように変わります

192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountvers=3,mountport=45378,mountproto=tcp,local_lock=none,addr=192.168.0.54)

/etc/auto.miscで使用しようとすると、-fstype=nfs4-/ misc/nfsにcdすることもできません。openvzごとにnfsv4がコンテナ内でサポートされていないため、この方法は理にかなっています https:/ /openvz.org/NFS_server_inside_container

マウントオプションにsloppyとシンプルrwがあることに注意してください。それは基本的には

  1. Mount.nfsに渡されたオプションは正確ではないため、それを回避しようとしています。 man mount.nfsを読み取り、/ sloppyを検索します。
  2. Nfsv4を使用しようとしていると思います。コンテナ内でサポートされていない場合、それがどのように機能するかさえわからない。

自動マウントマップを正しい構文に変更するか(私の例を参照)、またはここの例を参照することをお勧めします https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Storage_Administration_Guide/ s2-nfs-config-autofs.html

そしてテストします。私はちょうど2つの異なるopenvzホストで実行されている同じ2つのコンテナーでautofsを使用してテストを実行しました-nfsサーバーの再起動後-クライアントはまだ満足しています.

編集3シナリオさえ再現できません。 /etc/auto.miscを以下に変更しました。

[root@vznfsclient nfs]# egrep -nv "^#|^$" /etc/auto.misc
6:cd            -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom
16:nfs          -rw                     192.168.0.54:/nfs_export

そして、再起動してcd/misc/nfsを実行した後、私はまだこれを持っています

[root@vznfsclient nfs]# mount|grep nfs
nfsd on /proc/fs/nfsd type nfsd (rw,relatime)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountvers=3,mountport=46453,mountproto=udp,local_lock=none,addr=192.168.0.54)

したがって、私の場合、それはnfsv3を正しく使用しようとしています。

残された唯一のことは

/etc/autofs.confでデバッグをアクティブ化します

[root@vznfsclient nfs]# grep -i debug /etc/autofs.conf|grep -v "^#"
    logging = debug

デバッグ重大度を/var/log/messages/etc/rsyslog.confに送信できるようにします。これを変える

[root@vznfsclient nfs]# grep info /etc/rsyslog.conf
*.info;mail.none;authpriv.none;cron.none                -/var/log/messages

これ(.infoから.debug)

[root@vznfsclient nfs]# grep debug /etc/rsyslog.conf
*.debug;mail.none;authpriv.none;cron.none                -/var/log/messages

Autofsとrsyslogを再起動し、自動マウントされた場所に変更すると、/var/log/messagesにデバッグ出力が表示されます。

これは私のテストシステムからの出力です

Nov 25 03:06:00 vznfsclient automount[583]: attempting to mount entry /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: lookup_mount: lookup(file): looking up nfs
Nov 25 03:06:00 vznfsclient automount[583]: lookup_mount: lookup(file): nfs -> -rw#011#011#011192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(Sun): expanded entry: -rw#011#011#011192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(Sun): gathered options: rw
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(Sun): dequote("192.168.0.54:/nfs_export") -> 192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(Sun): core of entry: options=rw, loc=192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: Sun_mount: parse(Sun): mounting root /misc, mountpoint nfs, what 192.168.0.54:/nfs_export, fstype nfs, options rw
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): root=/misc name=nfs what=192.168.0.54:/nfs_export, fstype=nfs, options=rw
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): nfs options="rw", nobind=0, nosymlink=0, ro=0
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with Host 192.168.0.54(192.168.0.54) proto 6 version 0x40
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with Host 192.168.0.54(192.168.0.54) proto 6 version 0x70
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v3 rpc ping time: 0.000366
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: Host 192.168.0.54 cost 365 weight 0
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with Host 192.168.0.54(192.168.0.54) proto 17 version 0x70
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v3 rpc ping time: 0.000507
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v2 rpc ping time: 0.000692
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: Host 192.168.0.54 cost 599 weight 0
Nov 25 03:06:00 vznfsclient automount[583]: Prune_Host_list: selected subset of hosts that support NFS3 over TCP
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): calling mkdir_path /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): calling mount -t nfs -s -o rw 192.168.0.54:/nfs_export /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: spawn_mount: mtab link detected, passing -n to mount
Nov 25 03:06:00 vznfsclient automount[583]: mount(nfs): mounted 192.168.0.54:/nfs_export on /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: ioctl_send_ready: token = 28
Nov 25 03:06:00 vznfsclient automount[583]: mounted /misc/nfs
1
Dmitry Zayats

いくつかのこと... CentOS 6.5は最新ではありません。 OSを現在のリリース(現時点では6.8)にすることは計画に値します。

ntsysvの代わりにchkconfigコマンドを試してください。起動時にNFSサーバーデーモンが有効(チェック)になっていることを確認できます。

netfsサービスを有効にします。これは、ネットワークファイルシステムクライアントが起動時に必要なファイルシステムを確実にマウントするのに役立つためです。

enter image description here

幸運を!

0
ewwhite

まず、NFSは一般に、サーバー間でファイルを共有するための信頼性が高くありません。 BoxAがアクティブなマウントを行っているときにBoxBを再起動するか、または使用できなくなることは、実行中のシステムからドライブを引き出すのと同じように問題があります。あらゆる種類のものを奇妙な状態のままにすることができます。

マウントの用途に関する情報はあまり提供されていませんが、NFSに代わるものを検討してください。あなたがこれを何のためにやっているのかについて何らかの指示を与えるなら、私はおそらく代替案を提案することができます。 GFS、GlusterFS、rsync、lsyncd、またはHTTP(S)ベースのサービスが、少なくともいくつかの状況で適用される可能性がある可能性として頭に浮かびます。

あなたの現在の状況については、BoxBがダウンしたときに何かがマウントからぶら下がったままになっていると思います。サーバーの再起動の重要な部分は、すでに実行しているものをシャットダウンすることです。それが正しい場合は、両方のボックスをオフにしてから、BoxAを起動してからBoxBを起動でき、マウントは引き続き正常に起動します。私がここにいるのであれば、BoxAのログは、私たちと共有したBoxBのログよりもはるかに重要だと思います。手掛かりについてもマウントテーブルを確認します。

0
mc0e