既存のcsvファイルにデータフレームを追加するためにpandas to_csv()
関数を使用することが可能であるかどうか知りたいのですが。 csvファイルはロードされたデータと同じ構造を持ちます。
追加モードで ファイルを開く を指定するとをcsvに追加できます。
with open('my_csv.csv', 'a') as f:
df.to_csv(f, header=False)
これがあなたのcsvなら、foo.csv
:
,A,B,C
0,1,2,3
1,4,5,6
それを読んでから、例えばdf + 6
を追加するとします。
In [1]: df = pd.read_csv('foo.csv', index_col=0)
In [2]: df
Out[2]:
A B C
0 1 2 3
1 4 5 6
In [3]: df + 6
Out[3]:
A B C
0 7 8 9
1 10 11 12
In [4]: with open('foo.csv', 'a') as f:
(df + 6).to_csv(f, header=False)
foo.csv
は次のようになります。
,A,B,C
0,1,2,3
1,4,5,6
0,7,8,9
1,10,11,12
パンダ to_csv
関数でpythonの書き込みモードを指定できます。追加するには 'a'です。
あなたの場合:
df.to_csv('my_csv.csv', mode='a', header=False)
デフォルトのモードは 'w'です。
それをすべて処理するために、いくつかのヘッダチェック用の安全対策で使用する小さなヘルパー関数。
def appendDFToCSV_void(df, csvFilePath, sep=","):
import os
if not os.path.isfile(csvFilePath):
df.to_csv(csvFilePath, mode='a', index=False, sep=sep)
Elif len(df.columns) != len(pd.read_csv(csvFilePath, nrows=1, sep=sep).columns):
raise Exception("Columns do not match!! Dataframe has " + str(len(df.columns)) + " columns. CSV file has " + str(len(pd.read_csv(csvFilePath, nrows=1, sep=sep).columns)) + " columns.")
Elif not (df.columns == pd.read_csv(csvFilePath, nrows=1, sep=sep).columns).all():
raise Exception("Columns and column order of dataframe and csv file do not match!!")
else:
df.to_csv(csvFilePath, mode='a', index=False, sep=sep, header=False)
with open(filename, 'a') as f:
df.to_csv(f, header=f.tell()==0)
パーティーには少し時間がかかりますが、ファイルを何度も開いたり閉じたりしたり、データ、統計などを記録したりする場合は、コンテキストマネージャを使用することもできます。
from contextlib import contextmanager
import pandas as pd
@contextmanager
def open_file(path, mode):
file_to=open(path,mode)
yield file_to
file_to.close()
##later
saved_df=pd.DataFrame(data)
with open_file('yourcsv.csv','r') as infile:
saved_df.to_csv('yourcsv.csv',mode='a',header=False)`
最初はpysparkデータフレームから始めました - 私のpysparkデータフレームのスキーマ/列型を考えると型変換エラーが発生しました(パンダdfに変換してからcsvに追加するとき)。
各df内のすべての列を強制的に文字列型にしてから、次のようにcsvに追加することで問題を解決しました。
with open('testAppend.csv', 'a') as f:
df2.toPandas().astype(str).to_csv(f, header=False)