私はSamba用のUbuntu 14.04で小さなサーバーを構築し、1つのSSDドライブ(ubuntuインストールがその上にあります)と2つの3TB SATAディスクを持っています。sataディスクはmdadmでRAID 1に結合されています。
時々(毎回ではないが、ダーティシャットダウンに関連している可能性があると思われる)、システムはブートプロセスでハングする。
incrementally starting raid arrays
mdadm: Create user root not found
mdadm: create group disk not found
incrementally started raid arrays
これらの4行は繰り返されます。ブートボリューム(ssd)がRAIDとして構成されておらず、これが影響を与えないのは本当に奇妙なことですか?
重要な編集:ctrl + alt + delを押すと、サーバーが再起動して正常に起動します。raiddev mdadm --detail /dev/md0
起動後、すべてが正常に見えます。
私はLinuxプロではないので、これらのエラーに関連するものをインターネット上で見つけられなかったので、今私は少し詰まっています、おそらく誰かが問題の可能性がある手掛かりまたはいくつかの高度なトラブルシューティングのアドバイス(ログファイルなど)を持っています?
ステファンを読んでくれてありがとう
私のマシン(Ubuntu trusty)では、これは/ bootに新しい(xenial 4.4.0 -series)カーネルがインストールされていて、デフォルトで使用されているために発生しました。
古いカーネルバージョンを起動して実行することで、この問題を解決しました。
update-initramfs -u
update-grub
これも持っていた。私の環境:2x SAS raid10として構成されたHDD。
問題は、mpt2sas.ko
がロードされていないため、mdadm
がディスクを認識できないことでした。これは、パッケージ化エラーが原因で発生しました。aptがcrdaのような不要なwlanパッケージを削除すると、実際にlinux-image-extra-$VERSION
を所有するmpt2sas.ko
パッケージも自動的に削除されました。
モジュールがraidモジュールの前に読み込まれるようにするために、私は
echo mpt2sas >>/etc/initramfs-tools/modules
最後にエラーを「修正」しました。ショートバージョン:ASRock B85M Pro4メインボードと組み合わせたトランセンドSSD(TS128GSSD25S-M)がエラーの原因です。システムをclonezillaでSamsung 840 Evoに複製した後、問題なく30回起動しました。
深い問題レポート:しかし、mdadmがまったく関連のないRAIDアレイの問題を表示するのはなぜですか? :RAIDアレイを作成している間(またはデフォルトで多分?正確にはわかりません)mdadmは、initramfsにraid初期化スクリプトを配置します。このスクリプトは、rootfsがマウントされているかどうかを確認し、rootfs(私のSSD上)がマウントされていない場合は、mountroot_fail関数にジャンプします
message "Incrementally starting RAID arrays..."
if mdadm --incremental --run --scan; then
message "Incrementally started RAID arrays."
return 0
これは混乱を招く出力につながります。これらのスクリプトをinitramfsから削除した後、実際の問題にぶつかりました。
ルートデバイスのワイアをあきらめました。一般的な問題:
不足しているモジュール(cat/proc/modules; ls/dev)
ALERT! /dev/disk/by-uuid/01234567-89ab-cdef-0123-456789abcdef does not exist. Dropping to a Shell!
BusyBox v1.13.3 (Ubuntu 1:1.13.3-1ubuntu11) built-in Shell (ash)
Enter 'help' for a list of built-in commands.
(initramfs)
エラーが永続的ではないので、別のSSDを試してみて、BAMが機能していると考えました。
私にとっての解決策は、/ etc/initramfs-tools/modulesに「dm-mod」、「dm-snapshot」、「dm-mirror」のエントリが欠けていたことです。エラーメッセージが「mdadm」とraidについて話しているため、私はこの問題と戦うのにかなりの時間を費やしました。つまり、lvmが問題であることをどのように推測するべきでしょうか。
私のセットアップ:sda -> sda1 (0xfd linux raid autodetect, 500MB), sda2 (0xfd linux raid autodetect, 250G)
sdbと同じ
sda1 + sdb1 --> /dev/md0 (mdadm) "/boot"
sda2 + sdb2 --> /dev/md1 (mdadm) --> lvm volume for "swap" and "/"
そもそもgrub/lvmの混乱を避けるために、LVMに「/ boot」を入れていません。しかし、私はgrub/lvm/raidの別のターピットに陥ったようです:(
問題は、grubがinitramfsを適切にマウントし、それから/
をマウントできなかったことだったと思います(lvmモジュールがないため)、いくつかのRAIDデバイスを初期化しようとしました。
incrementally starting raid arrays
は、/
がマウントされないようにするモジュールがないため、誤解を招く可能性があります。不足しているmpt2sas
モジュールに関する上記の投稿も参照してください。
さらに、dm_
モジュールはdmraidの場合は必要ないので、これは間違っていました。これは、LVMにも必要です。私の状況では、dmraid(fakeraid)が問題を引き起こした(ディレクトリが消えた)ため、私はdmraidから従来のmdadmに切り替えました。
最後に重要なことですが、dm-mod
、dm-snapshot and
dm-mirror to
/etc/modules and
/etc/initramfs-tools/modulesaltough there are not really and
を追加できるかと思いましたその名前の.ko`ファイル。ある種のモジュールエイリアスでなければなりません。
私の場合、私は3.xカーネルを使用していて、4.4.xにアップグレードしました。 3.xカーネルをブートするとそれが修正され、4.4を削除したので、それに付属するinitramfsに互換性がないか問題があることは間違いありません。