WindowsでUTF-16でエンコードされたデータ入力担当者がいて、utf-8を使用してBOMを削除したいと考えています。 utf-8変換は機能しますが、BOMはまだ残っています。これをどのように削除しますか?これは私が現在持っているものです:
batch_3={'src':'/Users/jt/src','dest':'/Users/jt/dest/'}
batches=[batch_3]
for b in batches:
s_files=os.listdir(b['src'])
for file_name in s_files:
ff_name = os.path.join(b['src'], file_name)
if (os.path.isfile(ff_name) and ff_name.endswith('.json')):
print ff_name
target_file_name=os.path.join(b['dest'], file_name)
BLOCKSIZE = 1048576
with codecs.open(ff_name, "r", "utf-16-le") as source_file:
with codecs.open(target_file_name, "w+", "utf-8") as target_file:
while True:
contents = source_file.read(BLOCKSIZE)
if not contents:
break
target_file.write(contents)
Hexdump -Cを実行すると、次のようになります。
Wed Jan 11$ hexdump -C svy-m-317.json
00000000 ef bb bf 7b 0d 0a 20 20 20 20 22 6e 61 6d 65 22 |...{.. "name"|
00000010 3a 22 53 61 76 6f 72 79 20 4d 61 6c 69 62 75 2d |:"Savory Malibu-|
結果のファイルで。 BOMを削除するにはどうすればよいですか?
どうも
str.decode
および str.encode
:
with open(ff_name, 'rb') as source_file:
with open(target_file_name, 'w+b') as dest_file:
contents = source_file.read()
dest_file.write(contents.decode('utf-16').encode('utf-8'))
str.decode
は、BOMを削除します(エンディアンを推定します)。
これがUTF-16LE
とUTF-16
の違いです
UTF-16LE
はリトルエンディアンなし BOMUTF-16
はビッグエンディアンまたはリトルエンディアンwith BOMしたがって、UTF-16LE
を使用する場合、BOMはテキストの一部にすぎません。代わりにUTF-16
を使用すると、BOMが自動的に削除されます。 UTF-16LE
とUTF-16BE
が存在する理由は、BOMなしで「適切にエンコードされた」テキストを持ち運ぶことができるためです。
一方のエンコーディングを使用してエンコードし、もう一方のエンコーディングを使用してデコードするとどうなるかに注意してください。 (UTF-16
は自動的にUTF-16LE
を自動的に検出することがあります。常にではありません。)
>>> u'Hello, world'.encode('UTF-16LE')
'H\x00e\x00l\x00l\x00o\x00,\x00 \x00w\x00o\x00r\x00l\x00d\x00'
>>> u'Hello, world'.encode('UTF-16')
'\xff\xfeH\x00e\x00l\x00l\x00o\x00,\x00 \x00w\x00o\x00r\x00l\x00d\x00'
^^^^^^^^ (BOM)
>>> u'Hello, world'.encode('UTF-16LE').decode('UTF-16')
u'Hello, world'
>>> u'Hello, world'.encode('UTF-16').decode('UTF-16LE')
u'\ufeffHello, world'
^^^^ (BOM)
または、シェルでこれを行うことができます。
for x in * ; do iconv -f UTF-16 -t UTF-8 <"$x" | dos2unix >"$x.tmp" && mv "$x.tmp" "$x"; done