私は、pidstat
がプロセスを監視するための優れたツールであることを発見しました。特定のプロセスの平均メモリ使用量を計算したい。次に出力例をいくつか示します。
02:34:36 PM PID minflt/s majflt/s VSZ RSS %MEM Command
02:34:37 PM 7276 2.00 0.00 349212 210176 7.14 scalpel
(これはpidstat -r -p 7276
からの出力の一部です。)
常駐セットサイズ(RSS)または仮想サイズ(VSZ)の情報を使用して平均メモリ消費量を計算する必要がありますか?ウィキペディアやフォーラムでいくつか読んだことがありますが、違いを完全に理解することはできません。さらに、それらのどれも信頼できないようです。では、プロセスを監視してメモリ使用量を取得するにはどうすればよいですか?
この問題に関する助けがあれば役に立ちます。
RSSは、このプロセスが現在メインメモリ(RAM)に保持しているメモリの量です。 VSZは、プロセスの仮想メモリの合計量です。これには、RAMおよびスワップアウトされた両方のすべてのタイプのメモリが含まれます。これらの数値には、共有ライブラリやその他のタイプのメモリも含まれているため、歪む可能性があります。bash
running、およびそれらのメモリフットプリントの合計サイズは、RSSまたはVSZ値の合計にはなりません。
プロセスのメモリフットプリントについてより詳細なアイデアを得る必要がある場合は、いくつかのオプションがあります。 /proc/$PID/map
を実行して、不要なものを除外することができます。共有ライブラリの場合、必要に応じて計算が複雑になる可能性があります(覚えていると思います)。
プロセスのヒープサイズのみに関心がある場合は、map
ファイルの[heap]
エントリをいつでも解析できます。カーネルがプロセスヒープに割り当てたサイズは、プロセスに割り当てられるasked正確なバイト数を反映する場合と反映しない場合があります。細かい詳細、カーネルの内部、およびこれを破棄できる最適化があります。理想的な世界では、システムのページサイズの最も近い倍数に切り上げられて、プロセスの必要量と同じになります(getconf PAGESIZE
は、それが何であるかを教えてくれます-PCでは、おそらく4,096バイトです)。
プロセスが割り当てられたメモリの量を確認したい場合、最良の方法の1つは、カーネル側のメトリックを無視することです。代わりに、LD_PRELOAD
メカニズムを使用して、Cライブラリのヒープメモリ(割り当て解除)関数を計測します。個人的に、私はvalgrind
を少し乱用して、この種の情報を入手しています。 (インストルメンテーションを適用すると、プロセスを再起動する必要があることに注意してください。)
ランタイムのベンチマークを行っている可能性があるため、valgrind
を指定するとプログラムの速度が非常に遅くなります(ただし、許容範囲内)。
最小限の実行可能な例
これを理解するには、ページングの基本を理解する必要があります: https://stackoverflow.com/questions/18431261/how-does-x86-paging-work 、特にOSは実際にバッキングストレージがRAMまたはディスク(RSS常駐メモリ)にある前に、ページテーブル/その内部メモリブック(VSZ仮想メモリ)を介して仮想メモリを割り当てます。
この動作を観察するために、次のようなプログラムを作成しましょう。
mmap
を使用して、物理メモリよりも多くのRAMを割り当てますmain.c
#define _GNU_SOURCE
#include <assert.h>
#include <inttypes.h>
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <sys/mman.h>
#include <unistd.h>
typedef struct {
unsigned long size,resident,share,text,lib,data,dt;
} ProcStatm;
/* https://stackoverflow.com/questions/1558402/memory-usage-of-current-process-in-c/7212248#7212248 */
void ProcStat_init(ProcStatm *result) {
const char* statm_path = "/proc/self/statm";
FILE *f = fopen(statm_path, "r");
if(!f) {
perror(statm_path);
abort();
}
if(7 != fscanf(
f,
"%lu %lu %lu %lu %lu %lu %lu",
&(result->size),
&(result->resident),
&(result->share),
&(result->text),
&(result->lib),
&(result->data),
&(result->dt)
)) {
perror(statm_path);
abort();
}
fclose(f);
}
int main(int argc, char **argv) {
ProcStatm proc_statm;
char *base, *p;
char system_cmd[1024];
long page_size;
size_t i, nbytes, print_interval, bytes_since_last_print;
int snprintf_return;
/* Decide how many ints to allocate. */
if (argc < 2) {
nbytes = 0x10000;
} else {
nbytes = strtoull(argv[1], NULL, 0);
}
if (argc < 3) {
print_interval = 0x1000;
} else {
print_interval = strtoull(argv[2], NULL, 0);
}
page_size = sysconf(_SC_PAGESIZE);
/* Allocate the memory. */
base = mmap(
NULL,
nbytes,
PROT_READ | PROT_WRITE,
MAP_SHARED | MAP_ANONYMOUS,
-1,
0
);
if (base == MAP_FAILED) {
perror("mmap");
exit(EXIT_FAILURE);
}
/* Write to all the allocated pages. */
i = 0;
p = base;
bytes_since_last_print = 0;
/* Produce the ps command that lists only our VSZ and RSS. */
snprintf_return = snprintf(
system_cmd,
sizeof(system_cmd),
"ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == \"%ju\") print}'",
(uintmax_t)getpid()
);
assert(snprintf_return >= 0);
assert((size_t)snprintf_return < sizeof(system_cmd));
bytes_since_last_print = print_interval;
do {
/* Modify a byte in the page. */
*p = i;
p += page_size;
bytes_since_last_print += page_size;
/* Print process memory usage every print_interval bytes.
* We count memory using a few techniques from:
* https://stackoverflow.com/questions/1558402/memory-usage-of-current-process-in-c */
if (bytes_since_last_print > print_interval) {
bytes_since_last_print -= print_interval;
printf("extra_memory_committed %lu KiB\n", (i * page_size) / 1024);
ProcStat_init(&proc_statm);
/* Check /proc/self/statm */
printf(
"/proc/self/statm size resident %lu %lu KiB\n",
(proc_statm.size * page_size) / 1024,
(proc_statm.resident * page_size) / 1024
);
/* Check ps. */
puts(system_cmd);
system(system_cmd);
puts("");
}
i++;
} while (p < base + nbytes);
/* Cleanup. */
munmap(base, nbytes);
return EXIT_SUCCESS;
}
コンパイルして実行:
gcc -ggdb3 -O0 -std=c99 -Wall -Wextra -pedantic -o main.out main.c
echo 1 | Sudo tee /proc/sys/vm/overcommit_memory
Sudo dmesg -c
./main.out 0x1000000000 0x200000000
echo $?
Sudo dmesg
どこ:
echo 1 | Sudo tee /proc/sys/vm/overcommit_memory
:Linuxがmmap呼び出しを物理RAMよりも大きくできるようにするために必要です: https://stackoverflow.com/questions/2798330/maximum-memory-which-malloc-can-allocate/ 57687432#57687432プログラム出力:
extra_memory_committed 0 KiB
/proc/self/statm size resident 67111332 768 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 1648
extra_memory_committed 8388608 KiB
/proc/self/statm size resident 67111332 8390244 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 8390256
extra_memory_committed 16777216 KiB
/proc/self/statm size resident 67111332 16778852 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 16778864
extra_memory_committed 25165824 KiB
/proc/self/statm size resident 67111332 25167460 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 25167472
Killed
終了ステータス:
137
これは 128 +シグナル番号の規則 によって、シグナル番号9
を得たことを意味し、man 7 signal
は [〜#〜] sigkill [〜#〜] 、これはLinuxによって送信されます out-of-memory killer 。
出力の解釈:
printf '0x%X\n' 0x40009A4 KiB ~= 64GiB
(ps
の値はKiB単位)で一定です。extra_memory_committed 0
があり、これはまだどのページにも触れていないことを意味します。 RSSは小さな1648 KiB
であり、テキスト領域やグローバルなどの通常のプログラムの起動用に割り当てられています。8388608 KiB == 8GiB
相当のページに書き込みました。その結果、RSSは8GIBだけ8390256 KiB == 8388608 KiB + 1648 KiB
に増加しましたOOMキラーログ
dmesg
コマンドは、OOMキラーログを示しています。
それらの正確な解釈は以下で尋ねられました:
ログの最初の行は次のとおりです。
[ 7283.479087] mongod invoked oom-killer: gfp_mask=0x6200ca(GFP_HIGHUSER_MOVABLE), order=0, oom_score_adj=0
興味深いことに、おそらくバックグラウンドで私のラップトップで常に実行されているのは、最初にOOMキラーをトリガーしたのはMongoDBデーモンでした。
ただし、OOMキラーは、目覚めた人を必ずしも殺すわけではありません。
呼び出し後、カーネルはoom_score
を含むテーブルまたはプロセスを出力します。
[ 7283.479292] [ pid ] uid tgid total_vm rss pgtables_bytes swapents oom_score_adj name
[ 7283.479303] [ 496] 0 496 16126 6 172032 484 0 systemd-journal
[ 7283.479306] [ 505] 0 505 1309 0 45056 52 0 blkmapd
[ 7283.479309] [ 513] 0 513 19757 0 57344 55 0 lvmetad
[ 7283.479312] [ 516] 0 516 4681 1 61440 444 -1000 systemd-udevd
さらに先に、私たち自身の小さなmain.out
が前の呼び出しで実際に殺されたことがわかります:
[ 7283.479871] Out of memory: Kill process 15665 (main.out) score 865 or sacrifice child
[ 7283.479879] Killed process 15665 (main.out) total-vm:67111332kB, anon-rss:92kB, file-rss:4kB, shmem-rss:30080832kB
[ 7283.479951] oom_reaper: reaped process 15665 (main.out), now anon-rss:0kB, file-rss:0kB, shmem-rss:30080832kB
このログは、そのプロセスが持っていたscore 865
について言及しています。おそらく、最も高い(最悪の)OOMキラースコアは次のとおりです OOMキラーはどのプロセスを最初に強制終了するかをどのように決定するのですか?
また、興味深いことに、すべてが非常に高速で発生したため、解放されたメモリが使用される前に、oom
がDeadlineMonitor
プロセスによって再び呼び起こされました。
[ 7283.481043] DeadlineMonitor invoked oom-killer: gfp_mask=0x6200ca(GFP_HIGHUSER_MOVABLE), order=0, oom_score_adj=0
そして今回は、いくつかのChromiumプロセスを殺しました。これは通常、私のコンピュータの通常のメモリ消費です。
[ 7283.481773] Out of memory: Kill process 11786 (chromium-browse) score 306 or sacrifice child
[ 7283.481833] Killed process 11786 (chromium-browse) total-vm:1813576kB, anon-rss:208804kB, file-rss:0kB, shmem-rss:8380kB
[ 7283.497847] oom_reaper: reaped process 11786 (chromium-browse), now anon-rss:0kB, file-rss:0kB, shmem-rss:8044kB
Ubuntu 19.04、Linuxカーネル5.0.0でテスト済み。