4つのSATAポートを備えたNVidiaIONボードがあり、それを使用してLinuxサーバー(CentOS 5.4)を実行したいと考えています。最初に3つのHD(RAID5アレイになります)と4番目の小さなブートHDを接続しました。
私は最初にオンボードRAID機能を使い始めましたが、Linuxでは正しく機能しません。RAID容量は実際のRAIDではありませんが、lvmを使用していくつかのアレイを定義します。
BIOSを通常のSATAモードに戻し、HDをホイップした後、最初のブートハードディスク(/ dev/sda)は、マウント前およびマウント後は/ dev/mapper/nvidia_として/ dev/sdaとして表示されます。 CentOSはそれにインストールできません(そしてgrubもそれにインストールできません)。
したがって、どういうわけか、ハードディスクはまだいくつかのlvmボリュームに属しているように見えます。いくつかのdd if=/dev/zero of=/dev/sda
コマンドを発行して、開始シリンダーと最終シリンダーをワイプしてHDをクリーンアップしようとしましたが、役に立ちませんでした。
誰かがこの問題を見て、誰かが解決策を見つけましたか?
[〜#〜]更新[〜#〜]
最初のHD(/ dev/mapper/nvidia _...)にext3パーティションを1つだけ作成すると、LVMパーティションが表示されず、/ dev/mapper/nvidia _...から起動できます。次のステップはどうすればこの愚かさを取り除くことができますか。
あなたの問題はLVMよりもdmraid
に関係していると思います(同様の問題については このメモ を参照してください)。
dmraid
はLinuxのfakeRAID機能です。それとLVM(およびMD RAID、LinuxのソフトウェアRAID機能)は/ dev/mapperデバイスを使用しますが、私が知る限り、LVMには標準パーティションが必要です物理ボリューム(PV)として使用するディスク上。 / dev/mapper/nvidia_ * おそらく、NVidiaチップセット上のfakeRAIDセットを指します( sata_nv カーネルモジュール)。
この理論では、カーネルがドライブ上の古いRAIDメタデータの存在を検出し、それらを使用するようにデバイスマッパーを(dmraid
を介して)自動構成していることが起こっています。 LVMの場合は、_fdisk -l /dev/sda
_でわかると思います。
プレーンジェーン/ dev/sdaスタイルのディスクアクセスに戻ることが目標である場合は、次のことを行う必要があります。
DMraidまたはLVMが使用されていることを確認します。
dmraid -s
_または_dmraid -r
_を試してくださいpvscan
またはvgscan
(?)を試してくださいdmsetup ls
_を試して、デバイスマッパーに直接クエリを実行する必要があります。どちらか一方が使用されている場合は、それらの構成ツールを使用してそれらを削除します。
dmraid -an
_を使用してRAIDセットを非アクティブ化できますが、これでは不十分な場合があります。マンページは、_dmraid -r -E
_がメタデータを消去できることを示唆しているので、それが必要になる可能性があります。pvremove
またはvgremove
(または両方)dmsetup remove
_または_dmsetup remove_all
_を実行する必要がある場合もあります。??
つまり、システムを確認するために、dmraid
、dmsetup
、およびさまざまなLVMコマンドを試してみる必要があるかもしれませんwhyデバイスマッパーをアクティブ化することを主張します。 lsmod
は、使用中のカーネルモジュールを特定して、必要に応じてシャットダウンできるようにするのに役立つ場合があります。
参照:
dmraid(8)
および dmsetup(8)
マンページ