2つのLinodeコンテナーがあります。ボックスAは私たちの汎用Webサーバーです。 NFSサーバーとして設定されているBox Bにアクセスする必要がある場合があります。
ボックスBが再起動すると、ボックスAは私が何をしてもNFS共有にアクセスできません。数時間のトラブルシューティングの後、私はようやくそれを単一ステップの修正に絞り込むことができました。
ボックスBの再起動後:
$ Sudo service nfs restart
これらはどちらも最新のCentOS 6.8ボックスです。 NFS関連のパッケージはすべてyum経由でインストールされたと思います。すべてをセットアップするのにいくつかの問題がありました。これはスムーズなプロセスではありませんでしたが、nfsサービスを再起動した後、すべてが正常に動作しました。
もし私が
$ Sudo service --status-all
再起動を発行する前と後で違いはありません。多分それはタイミングの問題ですか?しかし、私はこれをトラブルシューティングし始める方法すら知りません。私に何ができる?
その他の注意事項:
Autofsを使用して、ボックスAからオンデマンドで共有を自動的にマウントしていますが、共有も手動でマウントされません。
私はWindowsとMacのデスクトップとサーバーで日々を過ごしていますが、LinuxでWebサイトを長年実行しています。私はやらなければならないことは得意ですが、それは私の快適さの分野ではなく、新しいことをする方法をググググするのに多くの時間を費やしています。
どこをチェックすればいいのか分からない。ログには明らかなものは何もありませんでしたが、何を探すべきか教えてください。投稿します。
ボックスB:
[shorowitz@BoxB ~]$ Sudo chkconfig --list nfs
nfs 0:off 1:off 2:on 3:on 4:on 5:on 6:off
[shorowitz@BoxB ~]$ Sudo chkconfig --list nfslock
nfslock 0:off 1:off 2:on 3:on 4:on 5:on 6:off
BoxBを新たに再起動した後、
$ Sudo showmount -e BoxB
boxAから、予想されるマウントポイントが表示されますが、マウントできません。 BoxBでNFSを再起動するだけ
$ Sudo service nfs restart
Shutting down NFS daemon: [ OK ]
Shutting down NFS mountd: [ OK ]
Shutting down NFS services: [ OK ]
Shutting down RPC idmapd: [ OK ]
FATAL: Module nfsd not found.
FATAL: Error running install command for nfsd
Starting NFS services: [ OK ]
Starting NFS mountd: [ OK ]
Starting NFS daemon: [ OK ]
Starting RPC idmapd: [ OK ]
マウントはBoxAですぐに利用できます。これらの致命的なエラーは、NFSがすでに機能している場合、その後の再起動でも表示されるため、それらがどの程度関連しているかはわかりません(すでに投稿したと思います)。
11月15日9:29にリブートコマンドを発行しました
grep -i "nfs" /var/log/message*
messages:Nov 15 09:29:08 BoxB kernel: nfsd: last server has exited, flushing export cache
messages:Nov 15 09:29:54 BoxB kernel: RPC: Registered tcp NFSv4.1 backchannel transport module.
messages:Nov 15 09:29:54 BoxB kernel: FS-Cache: Netfs 'nfs' registered for caching
messages:Nov 15 09:29:54 BoxB kernel: NFS: Registering the id_resolver key type
messages:Nov 15 09:29:54 BoxB kernel: nfs4filelayout_init: NFSv4 File Layout Driver Registering...
messages:Nov 15 09:29:54 BoxB kernel: Installing knfsd (copyright (C) 1996 [email protected]).
messages:Nov 15 09:29:54 BoxB kernel: xenfs: not registering filesystem on non-xen platform
messages:Nov 15 09:29:54 BoxB rpc.mountd[2740]: NFS v4 mounts will be disabled unless fsid=0
messages:Nov 15 09:29:54 BoxB kernel: NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory
messages:Nov 15 09:29:54 BoxB kernel: NFSD: starting 90-second grace period (net ****************)
messages:Nov 15 09:33:39 BoxB kernel: nfsd: last server has exited, flushing export cache
messages:Nov 15 09:33:40 BoxB kernel: NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory
messages:Nov 15 09:33:40 BoxB kernel: NFSD: starting 90-second grace period (net ****************)
[shorowitz@BoxB ~]$ Sudo chkconfig --list | egrep "nfs|rpc"
nfs 0:off 1:off 2:on 3:on 4:on 5:on 6:off
nfslock 0:off 1:off 2:on 3:on 4:on 5:on 6:off
rpcbind 0:off 1:off 2:on 3:on 4:on 5:on 6:off
rpcgssd 0:off 1:off 2:off 3:on 4:on 5:on 6:off
rpcsvcgssd 0:off 1:off 2:off 3:off 4:off 5:off 6:off
[shorowitz@BoxB ~]$ Sudo iptables --list -n -v
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
0 0 ACCEPT all -- lo * 0.0.0.0/0 0.0.0.0/0
0 0 REJECT all -- !lo * 127.0.0.0/8 0.0.0.0/0 reject-with icmp-port-unreachable
18 710 ACCEPT icmp -- * * 0.0.0.0/0 0.0.0.0/0 state NEW icmp type 8
471 26200 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:22 state NEW
204K 393M ACCEPT all -- * * {BoxA IP} 0.0.0.0/0
6721 754K ACCEPT all -- * * 0.0.0.0/0 0.0.0.0/0 state RELATED,ESTABLISHED
2859 168K LOG all -- * * 0.0.0.0/0 0.0.0.0/0 limit: avg 5/min burst 5 LOG flags 0 level 7 prefix `iptables_INPUT_denied: '
9229 628K REJECT all -- * * 0.0.0.0/0 0.0.0.0/0 reject-with icmp-port-unreachable
Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
0 0 LOG all -- * * 0.0.0.0/0 0.0.0.0/0 limit: avg 5/min burst 5 LOG flags 0 level 7 prefix `iptables_FORWARD_denied: '
0 0 REJECT all -- * * 0.0.0.0/0 0.0.0.0/0 reject-with icmp-port-unreachable
Chain OUTPUT (policy ACCEPT 278K packets, 8386M bytes)
pkts bytes target prot opt in out source destination
[shorowitz@BoxB ~]$ Sudo rpcinfo -p
program vers proto port service
100000 4 tcp 111 portmapper
100000 3 tcp 111 portmapper
100000 2 tcp 111 portmapper
100000 4 udp 111 portmapper
100000 3 udp 111 portmapper
100000 2 udp 111 portmapper
100024 1 udp 38148 status
100024 1 tcp 45681 status
100005 1 udp 37846 mountd
100005 1 tcp 59259 mountd
100005 2 udp 59934 mountd
100005 2 tcp 42645 mountd
100005 3 udp 33867 mountd
100005 3 tcp 41823 mountd
100003 2 tcp 2049 nfs
100003 3 tcp 2049 nfs
100003 4 tcp 2049 nfs
100227 2 tcp 2049 nfs_acl
100227 3 tcp 2049 nfs_acl
100003 2 udp 2049 nfs
100003 3 udp 2049 nfs
100003 4 udp 2049 nfs
100227 2 udp 2049 nfs_acl
100227 3 udp 2049 nfs_acl
100021 1 udp 37287 nlockmgr
100021 3 udp 37287 nlockmgr
100021 4 udp 37287 nlockmgr
100021 1 tcp 37579 nlockmgr
100021 3 tcp 37579 nlockmgr
100021 4 tcp 37579 nlockmgr
これは何も返しません:
grep -v "^#" /etc/sysconfig/nfs
$ chkconfig --list | egrep "nfs|rpc"
nfs 0:off 1:off 2:on 3:on 4:on 5:on 6:off
nfslock 0:off 1:off 2:on 3:on 4:on 5:on 6:off
rpcbind 0:off 1:off 2:on 3:on 4:on 5:on 6:off
rpcgssd 0:off 1:off 2:off 3:on 4:on 5:on 6:off
rpcsvcgssd 0:off 1:off 2:off 3:off 4:off 5:off 6:off
$ iptables --list -n -v
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
390K 58M ACCEPT all -- lo * 0.0.0.0/0 0.0.0.0/0
0 0 REJECT all -- * * 0.0.0.0/0 127.0.0.0/8 reject-with icmp-port-unreachable
990K 7850M ACCEPT all -- * * 0.0.0.0/0 0.0.0.0/0 state RELATED,ESTABLISHED
0 0 DROP all -- * * 43.255.188.145 0.0.0.0/0
8 388 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:587
11864 608K ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:25
1 40 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:636
4545 238K ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:80
9759 553K ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:443
24 960 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:8080
320 19152 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:22
85 5681 ACCEPT icmp -- * * 0.0.0.0/0 0.0.0.0/0
3254 194K LOG all -- * * 0.0.0.0/0 0.0.0.0/0 limit: avg 5/min burst 5 LOG flags 0 level 7 prefix `iptables denied: '
3634 227K DROP all -- * * 0.0.0.0/0 0.0.0.0/0
Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
0 0 DROP all -- * * 0.0.0.0/0 0.0.0.0/0
Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
1360K 1907M ACCEPT all -- * * 0.0.0.0/0 0.0.0.0/0
$ rpcinfo -p
program vers proto port service
100000 4 tcp 111 portmapper
100000 3 tcp 111 portmapper
100000 2 tcp 111 portmapper
100000 4 udp 111 portmapper
100000 3 udp 111 portmapper
100000 2 udp 111 portmapper
100024 1 udp 55882 status
100024 1 tcp 58283 status
100011 1 udp 875 rquotad
100011 2 udp 875 rquotad
100011 1 tcp 875 rquotad
100011 2 tcp 875 rquotad
100005 1 udp 43136 mountd
100005 1 tcp 55047 mountd
100005 2 udp 51117 mountd
100005 2 tcp 42791 mountd
100005 3 udp 44511 mountd
100005 3 tcp 46535 mountd
100003 2 tcp 2049 nfs
100003 3 tcp 2049 nfs
100003 4 tcp 2049 nfs
100227 2 tcp 2049 nfs_acl
100227 3 tcp 2049 nfs_acl
100003 2 udp 2049 nfs
100003 3 udp 2049 nfs
100003 4 udp 2049 nfs
100227 2 udp 2049 nfs_acl
100227 3 udp 2049 nfs_acl
100021 1 udp 43509 nlockmgr
100021 3 udp 43509 nlockmgr
100021 4 udp 43509 nlockmgr
100021 1 tcp 38725 nlockmgr
100021 3 tcp 38725 nlockmgr
100021 4 tcp 38725 nlockmgr
$ mount | grep nfs
nfsd on /proc/fs/nfsd type nfsd (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
BoxA:
$ cat /etc/auto.master.d/nfs
xdata -rw boxb:/srv/nfs/xdata
xbackup -rw boxb:/srv/nfs/xbackup
zbackups -rw boxb:/srv/nfs/zbackups
$ mount | grep nfs
mount |grep nfs
nfsd on /proc/fs/nfsd type nfsd (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
boxb:/srv/nfs/xdata on /mnt/nfs/xdata type nfs (rw,sloppy,vers=4,addr={boxb ip},clientaddr={boxa ip})
質問をさらに詳しい情報で更新できますか?
NFSサーバーで実行
chkconfig --list | egrep "nfs|rpc"
iptables --list -n -v
rpcinfo -p
Nfsサーバーの設定がカスタマイズされていない場合、次は何も返さないはずです。
grep -v "^#" /etc/sysconfig/nfs
ただし、iptablesを実行している場合は、カスタマイズする必要があります。こちらをご覧ください
https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Storage_Administration_Guide/s2-nfs-nfs-firewall-config.html
あなたのクライアントで
chkconfig --list | egrep "nfs|rpc"
iptables --list -n -v
rpcinfo -p
mount | grep nfs
NFSV2またはNFSV3を実行している場合は、クライアントでnfslockも実行する必要があります
NFSの起動時に出力で奇妙に見えるもの-これは次の行ですか
FATAL: Module nfsd not found.
FATAL: Error running install command for nfsd
そして、私は1つのことに気づきました-あなたがopenvzで実行しているので-以下のリンクはあなたの状況に適用されます。これが役立つかどうかを確認してください
https://openvz.org/NFS_server_inside_container
編集1:今日、openvzコンテナでテストを実行しました。
表示されるメッセージ
FATAL: Module nfsd not found.
FATAL: Error running install command for nfsd
無害です。ここで説明します https://openvz.org/NFS_server_inside_container
問題を再現できませんでした。 nfsサーバーの再起動後-nfsクライアントは引き続きファイルの参照、新しいファイルの作成、nfs共有からのファイルの削除を行うことができました。
自動マウント構成と次の出力を投稿できますか?
mount|grep nfs
あなたがすでにしたボックスAから。しかし、自動マウントされたファイルシステムがマウント解除されているときに、それを行いました。したがって、ボックスAで、自動マウントされたディレクトリにcdしてから、上記のコマンドを実行します。これにより、マウント時に使用されたオプションに関する情報が提供されます。
また、次にボックスBを再起動したときに、この自動マウントの問題が発生している-サイトAからこのコマンドを実行する
netstat -anp|grep ipofB
これにより、関連するポートに関する情報が得られます。
このような状況では、BとAのtcpdumpを収集することも有効です。
私はあなたの設定には何も問題がないと思う傾向があります-しかし、vzhostsのiptablesで何か奇妙なことが起こっています。コンテナの中ではなく、ホスト上にあります。
ホストAにnmapをインストールし、問題が発生したときにも実行できます。ホストBをスキャンして、Aの観点から開いているポートを確認します(netstatまたはssを提案している場合もありますが、この場合、コンテナーの前にopenvz Hostファイアウォールもあり、それらが何かをブロックしているかどうかはわかりません)
編集2(11月25日)マウントオプションがおかしい
出力を比較する
$ mount | grep nfs
mount |grep nfs
nfsd on /proc/fs/nfsd type nfsd (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
boxb:/srv/nfs/xdata on /mnt/nfs/xdata type nfs (rw,sloppy,vers=4,addr={boxb ip},clientaddr={boxa ip})
以下の鉱山に。これが私の/etc/auto.miscです。 6行目がデフォルトです。追加した行16
[root@vznfsclient /]# egrep -vn "^#|^$" /etc/auto.misc
6:cd -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom
16:nfs -fstype=nfs 192.168.0.54:/nfs_export
/ misc/nfsにcdすると、共有がマウントされます。しかし、12行目のデフォルトオプションを見てください。
[root@vznfsclient ~]# mount|egrep -n "nfs|auto"
4:nfsd on /proc/fs/nfsd type nfsd (rw,relatime)
5:sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
10:/etc/auto.misc on /misc type autofs (rw,relatime,fd=6,pgrp=768,timeout=300,minproto=5,maxproto=5,indirect)
11:-hosts on /net type autofs (rw,relatime,fd=12,pgrp=768,timeout=300,minproto=5,maxproto=5,indirect)
12:192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountvers=3,mountport=42089,mountproto=udp,local_lock=none,addr=192.168.0.54)
最初はnfsv3で、udpを使用しています。 Ok udp /etc/auto.miscをこれに変更することでtcpに変更できます
[root@vznfsclient /]# egrep -vn "^#|^$" /etc/auto.misc
6:cd -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom
16:nfs -fstype=nfs,proto=tcp 192.168.0.54:/nfs_export
マウントオプションは次のように変わります
192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountvers=3,mountport=45378,mountproto=tcp,local_lock=none,addr=192.168.0.54)
/etc/auto.miscで使用しようとすると、-fstype=nfs4
-/ misc/nfsにcdすることもできません。openvzごとにnfsv4がコンテナ内でサポートされていないため、この方法は理にかなっています https:/ /openvz.org/NFS_server_inside_container
マウントオプションにsloppy
とシンプルrw
があることに注意してください。それは基本的には
自動マウントマップを正しい構文に変更するか(私の例を参照)、またはここの例を参照することをお勧めします https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Storage_Administration_Guide/ s2-nfs-config-autofs.html
そしてテストします。私はちょうど2つの異なるopenvzホストで実行されている同じ2つのコンテナーでautofsを使用してテストを実行しました-nfsサーバーの再起動後-クライアントはまだ満足しています.
編集3シナリオさえ再現できません。 /etc/auto.miscを以下に変更しました。
[root@vznfsclient nfs]# egrep -nv "^#|^$" /etc/auto.misc
6:cd -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom
16:nfs -rw 192.168.0.54:/nfs_export
そして、再起動してcd/misc/nfsを実行した後、私はまだこれを持っています
[root@vznfsclient nfs]# mount|grep nfs
nfsd on /proc/fs/nfsd type nfsd (rw,relatime)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountvers=3,mountport=46453,mountproto=udp,local_lock=none,addr=192.168.0.54)
したがって、私の場合、それはnfsv3を正しく使用しようとしています。
残された唯一のことは
/etc/autofs.confでデバッグをアクティブ化します
[root@vznfsclient nfs]# grep -i debug /etc/autofs.conf|grep -v "^#"
logging = debug
デバッグ重大度を/var/log/messages
の/etc/rsyslog.conf
に送信できるようにします。これを変える
[root@vznfsclient nfs]# grep info /etc/rsyslog.conf
*.info;mail.none;authpriv.none;cron.none -/var/log/messages
これ(.infoから.debug)
[root@vznfsclient nfs]# grep debug /etc/rsyslog.conf
*.debug;mail.none;authpriv.none;cron.none -/var/log/messages
Autofsとrsyslogを再起動し、自動マウントされた場所に変更すると、/var/log/messages
にデバッグ出力が表示されます。
これは私のテストシステムからの出力です
Nov 25 03:06:00 vznfsclient automount[583]: attempting to mount entry /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: lookup_mount: lookup(file): looking up nfs
Nov 25 03:06:00 vznfsclient automount[583]: lookup_mount: lookup(file): nfs -> -rw#011#011#011192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(Sun): expanded entry: -rw#011#011#011192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(Sun): gathered options: rw
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(Sun): dequote("192.168.0.54:/nfs_export") -> 192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: parse_mount: parse(Sun): core of entry: options=rw, loc=192.168.0.54:/nfs_export
Nov 25 03:06:00 vznfsclient automount[583]: Sun_mount: parse(Sun): mounting root /misc, mountpoint nfs, what 192.168.0.54:/nfs_export, fstype nfs, options rw
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): root=/misc name=nfs what=192.168.0.54:/nfs_export, fstype=nfs, options=rw
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): nfs options="rw", nobind=0, nosymlink=0, ro=0
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with Host 192.168.0.54(192.168.0.54) proto 6 version 0x40
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with Host 192.168.0.54(192.168.0.54) proto 6 version 0x70
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v3 rpc ping time: 0.000366
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: Host 192.168.0.54 cost 365 weight 0
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with Host 192.168.0.54(192.168.0.54) proto 17 version 0x70
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v3 rpc ping time: 0.000507
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v2 rpc ping time: 0.000692
Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: Host 192.168.0.54 cost 599 weight 0
Nov 25 03:06:00 vznfsclient automount[583]: Prune_Host_list: selected subset of hosts that support NFS3 over TCP
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): calling mkdir_path /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): calling mount -t nfs -s -o rw 192.168.0.54:/nfs_export /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: spawn_mount: mtab link detected, passing -n to mount
Nov 25 03:06:00 vznfsclient automount[583]: mount(nfs): mounted 192.168.0.54:/nfs_export on /misc/nfs
Nov 25 03:06:00 vznfsclient automount[583]: ioctl_send_ready: token = 28
Nov 25 03:06:00 vznfsclient automount[583]: mounted /misc/nfs
まず、NFSは一般に、サーバー間でファイルを共有するための信頼性が高くありません。 BoxAがアクティブなマウントを行っているときにBoxBを再起動するか、または使用できなくなることは、実行中のシステムからドライブを引き出すのと同じように問題があります。あらゆる種類のものを奇妙な状態のままにすることができます。
マウントの用途に関する情報はあまり提供されていませんが、NFSに代わるものを検討してください。あなたがこれを何のためにやっているのかについて何らかの指示を与えるなら、私はおそらく代替案を提案することができます。 GFS、GlusterFS、rsync、lsyncd、またはHTTP(S)ベースのサービスが、少なくともいくつかの状況で適用される可能性がある可能性として頭に浮かびます。
あなたの現在の状況については、BoxBがダウンしたときに何かがマウントからぶら下がったままになっていると思います。サーバーの再起動の重要な部分は、すでに実行しているものをシャットダウンすることです。それが正しい場合は、両方のボックスをオフにしてから、BoxAを起動してからBoxBを起動でき、マウントは引き続き正常に起動します。私がここにいるのであれば、BoxAのログは、私たちと共有したBoxBのログよりもはるかに重要だと思います。手掛かりについてもマウントテーブルを確認します。