他のシステムで機能するDockerイメージを実行しようとしています(必要に応じてdockerhubからプルすることもできます:dougbtv/asterisk
です)。それ(のように見えます)はDockerイメージを展開しています。
実行しようとすると、領域が足りないというエラーメッセージが表示されます。これは私がそれを実行しようとしている例であり、それはスペースについて不平を言っています。
[root@localhost docker]# docker run -i -t dougbtv/asterisk /bin/bash
Timestamp: 2015-05-13 07:50:58.128736228 -0400 EDT
Code: System error
Message: [/usr/bin/tar -xf /var/lib/docker/tmp/70c178005ccd9cc5373faa8ff0ff9c7c7a4cf0284bd9f65bbbcc2c0d96e8565d410879741/_tmp.tar -C /var/lib/docker/devicemapper/mnt/70c178005ccd9cc5373faa8ff0ff9c7c7a4cf0284bd9f65bbbcc2c0d96e8565d/rootfs/tmp .] failed: /usr/bin/tar: ./asterisk/utils/astdb2sqlite3: Wrote only 512 of 10240 bytes
/usr/bin/tar: ./asterisk/utils/conf2ael.c: Cannot write: No space left on device
/usr/bin/tar: ./asterisk/utils/astcanary: Cannot write: No space left on device
/usr/bin/tar: ./asterisk/utils/.astcanary.o.d: Cannot write: No space left on device
/usr/bin/tar: ./asterisk/utils/check_expr.c: Cannot write: No space left on device
[... another few hundred similar lines]
もちろん、使用可能なスペースの量を確認しました。グーグルで調べたところ、iノードが足りなくなったためにこれが発生することがあります。両方を見てみると、iノードもたくさんあることがわかります。
[root@localhost docker]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 3.9G 0 3.9G 0% /dev
tmpfs 3.9G 20M 3.9G 1% /dev/shm
tmpfs 3.9G 1.2M 3.9G 1% /run
tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/mapper/Fedora-root 36G 9.4G 25G 28% /
tmpfs 3.9G 5.2M 3.9G 1% /tmp
/dev/sda3 477M 164M 285M 37% /boot
/dev/mapper/Fedora-home 18G 7.7G 8.9G 47% /home
tmpfs 793M 40K 793M 1% /run/user/1000
/dev/sdb1 489G 225G 265G 46% /mnt/extradoze
[root@localhost docker]# df -i
Filesystem Inodes IUsed IFree IUse% Mounted on
devtmpfs 1012063 585 1011478 1% /dev
tmpfs 1015038 97 1014941 1% /dev/shm
tmpfs 1015038 771 1014267 1% /run
tmpfs 1015038 15 1015023 1% /sys/fs/cgroup
/dev/mapper/Fedora-root 2392064 165351 2226713 7% /
tmpfs 1015038 141 1014897 1% /tmp
/dev/sda3 128016 429 127587 1% /boot
/dev/mapper/Fedora-home 1166880 145777 1021103 13% /home
tmpfs 1015038 39 1014999 1% /run/user/1000
/dev/sdb1 277252836 168000 277084836 1% /mnt/extradoze
そして、あなたはここで何が起こっているのかを少し見ることができます/etc/fstab
[root@localhost docker]# cat /etc/fstab
#
# /etc/fstab
# Created by anaconda on Tue Mar 17 20:11:16 2015
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/Fedora-root / ext4 defaults 1 1
UUID=2e2535da-907a-44ec-93d8-1baa73fb6696 /boot ext4 defaults 1 2
/dev/mapper/Fedora-home /home ext4 defaults 1 2
/dev/mapper/Fedora-swap swap swap defaults 0 0
また、同様のスタック交換の質問を持つ人にlvs
コマンドの結果を尋ねました。
[root@localhost docker]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
home Fedora -wi-ao---- 17.79g
root Fedora -wi-ao---- 36.45g
swap Fedora -wi-ao---- 7.77g
これはFedora 21システムです。
[root@localhost docker]# cat /etc/redhat-release
Fedora release 21 (Twenty One)
[root@localhost docker]# uname -a
Linux localhost.localdomain 3.19.5-200.fc21.x86_64 #1 SMP Mon Apr 20 19:51:56 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux
ストレージドライバー:
[doug@localhost cs]$ Sudo docker info|grep Driver:
Storage Driver: devicemapper
Execution Driver: native-0.2
Dockerバージョン:
[doug@localhost cs]$ Sudo docker -v
Docker version 1.6.0, build 3eac457/1.6.0
あたり この推奨記事 Dockerを/etc/sysconfig/docker
に変更しようとしました
OPTIONS='--selinux-enabled --storage-opt dm.loopdatasize=500GB --storage-opt dm.loopmetadatasize=10GB'
ドッカーを再起動しましたが、役に立ちませんでした。 --selinux-enabled
に戻しました(注:selinuxを無効にしています)
さらに、次のようなスペアデータファイルの確認についての記事に気づきました。
[root@localhost doug]# ls -alhs /var/lib/docker/devicemapper/devicemapper
total 3.4G
4.0K drwx------ 2 root root 4.0K Mar 20 13:37 .
4.0K drwx------ 5 root root 4.0K Mar 20 13:39 ..
3.4G -rw------- 1 root root 100G May 13 14:33 data
9.7M -rw------- 1 root root 2.0G May 13 14:33 metadata
スパースファイルがディスクのサイズより大きいことは問題ですか?
私のlsblk
は次のようになります:
[root@localhost doug]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 111.8G 0 disk
├─sda1 8:1 0 100M 0 part
├─sda2 8:2 0 49.2G 0 part
├─sda3 8:3 0 500M 0 part /boot
├─sda4 8:4 0 1K 0 part
└─sda5 8:5 0 62G 0 part
├─Fedora-swap 253:0 0 7.8G 0 lvm [SWAP]
├─Fedora-root 253:1 0 36.5G 0 lvm /
└─Fedora-home 253:2 0 17.8G 0 lvm /home
sdb 8:16 0 1.8T 0 disk
└─sdb1 8:17 0 489G 0 part /mnt/extradoze
loop0 7:0 0 100G 0 loop
└─docker-253:1-1051064-pool 253:3 0 100G 0 dm
loop1 7:1 0 2G 0 loop
└─docker-253:1-1051064-pool 253:3 0 100G 0 dm
RedHatベースのオペレーティングシステムを使用している場合、「Devicemapper」はイメージあたり10 GBに制限されていることを知っておく必要があります。最大10 GBのイメージを実行しようとすると、そのエラーが発生する場合があります。それはあなたの問題かもしれません。これを試してください、それは私のために働きました
https://docs.docker.com/engine/reference/commandline/daemon/#storage-driver-options
Sudo systemctl stop docker.service
または
Sudo service docker stop
rm -rvf /var/lib/docker (Take back up of any important data; containers and images will be deleted)
このコマンドを実行する
docker daemon --storage-opt dm.basesize=20G
「20G」は、デバイスマッパーが使用する新しいサイズを指し、Dockerを再起動します
Sudo systemctl start docker.service
または
Sudo service docker start
実行して設定されているか確認してください
docker info
これがうまくいくことを願っています!
非常に大きなイメージを実行しようとしていますか? RHELはaufsネイティブサポートを備えていません。したがって、devicemapper
を使用します。devicemapper
を使用する場合、コンテナファイルシステムのデフォルトでは10GBにしかアクセスできません。チェック この記事 、それは助けになるかもしれません。
ランニング docker system Prune
しばらく動作しましたが、[環境設定...]> [ディスク]で[ディスクイメージのサイズ]を増やし続ける必要がありましたが、それは、もう一度大きくするまで役に立ちました。
ディスクイメージのサイズを増やし続けることを拒否し、docker system Prune
はこれ以上スペースを要求していませんでしたが、実行中docker volume Prune
が今回助けてくれました。