Apacheログファイルを定期的に解析して、訪問者、帯域幅の使用状況などをログに記録するプログラムを作成しています。
問題は、ログを開いて、すでに解析したデータを解析したくないということです。例えば:
line1
line2
line3
そのファイルを解析する場合は、すべての行を保存してから、そのオフセットを保存します。そうすれば、もう一度解析すると、次のようになります。
line1
line2
line3 - The log will open from this point
line4
line5
2回目は、line4とline5を取得します。うまくいけば、これは理にかなっています...
私が知る必要があるのは、どうすればこれを達成できるかということです。 Pythonにはオフセットを指定するseek()関数があります...したがって、ログを解析した後、ログのファイルサイズ(バイト単位)を取得し、それをオフセットとして使用します(seek( ))2回目にログに記録しますか?
これをコーディングする方法を考えることができないようです>。<
seek
クラスのtell
メソッドとfile
メソッドのおかげで、ファイル内の位置を管理できます。 https://docs.python.org/2を参照) /tutorial/inputoutput.html
tell
メソッドは、次に開いたときにどこを探すべきかを教えてくれます
_log = open('myfile.log')
pos = open('pos.dat','w')
print log.readline()
pos.write(str(f.tell())
log.close()
pos.close()
log = open('myfile.log')
pos = open('pos.dat')
log.seek(int(pos.readline()))
print log.readline()
_
もちろん、そのように使用するべきではありません。操作をsave_position(myfile)
やload_position(myfile)
のような関数にまとめる必要がありますが、機能はすべてそこにあります。
ログファイルがメモリに簡単に収まる場合(つまり、適切なローテーションポリシーがあります)、次のようなことを簡単に行うことができます。
log_lines = open('logfile','r').readlines()
last_line = get_last_lineprocessed() #From some persistent storage
last_line = parse_log(log_lines[last_line:])
store_last_lineprocessed(last_line)
これができない場合は、次のようなものを使用できます(承認された回答のシークとテルの使用を参照してください) Pythonでファイルの最後のn行を取得します。尾
これがあなたの長さの提案を使用して証明するコードであり、彼らはメソッドを教えてくれます:
beginning="""line1
line2
line3"""
end="""- The log will open from this point
line4
line5"""
openfile= open('log.txt','w')
openfile.write(beginning)
endstarts=openfile.tell()
openfile.close()
open('log.txt','a').write(end)
print open('log.txt').read()
print("\nAgain:")
end2 = open('log.txt','r')
end2.seek(len(beginning))
print end2.read() ## wrong by two too little because of magic newlines in Windows
end2.seek(endstarts)
print "\nOk in Windows also"
print end2.read()
end2.close()
1行ごとにログ行を解析する場合は、最後の解析から行番号を保存するだけで済みます。次回は良い行から読み始める必要があります。
ファイル内の非常に特定の場所にいる必要がある場合は、シークがより便利です。
簡単ですがお勧めしません:):
last_line_processed = get_last_line_processed()
with open('file.log') as log
for record_number, record in enumerate(log):
if record_number >= last_line_processed:
parse_log(record)
これは、並列ファイルに読み取られたオフセットを保存するための効率的で安全なスニペットです。基本的にPythonでlogtailします。
with open(filename) as log_fd:
offset_filename = os.path.join(OFFSET_ROOT_DIR,filename)
if not os.path.exists(offset_filename):
os.makedirs(os.path.dirname(offset_filename))
with open(offset_filename, 'w') as offset_fd:
offset_fd.write(str(0))
with open(offset_filename, 'r+') as offset_fd:
log_fd.seek(int(offset_fd.readline()) or 0)
new_logrows_handler(log_fd.readlines())
offset_fd.seek(0)
offset_fd.write(str(log_fd.tell()))
ファイルの終わりからpython)でseek()を実行できることに注意してください。
f.seek(-3, os.SEEK_END)
読み取り位置をEOFから3行置きます。
ただし、シェルから、または difflib でdiffを使用しないのはなぜですか?