「トランザクション」を含む単純なテキストファイルがあります。
1行目は列名です。 「START_TIME」、「END_TIME」、「SIZE」..約100個の列名。
ファイル内の列名には引用符がありません。
Sparkを使用して、このファイルを列名付きのデータフレームに変換し、
ファイルからすべての列を削除しますが、特定の列を削除します。
テキストファイルをデータフレームに変換するのに少し問題があります。
これまでの私のコードは次のとおりです。
from pyspark import SparkContext
from pyspark.sql import SQLContext
from pyspark.sql.types import *
# Load relevant objects
sc = SparkContext('local')
log_txt = sc.textFile("/path/to/text/file.txt")
sqlContext = SQLContext(sc)
# Construct fields with names from the header, for creating a DataFrame
header = log_txt.first()
fields = [StructField(field_name, StringType(), True)
for field_name in header.split(',')]
# Only columns\fields 2,3,13,92 are relevant. set them to relevant types
fields[2].dataType = TimestampType() # START_TIME in yyyymmddhhmmss format
fields[3].dataType = TimestampType() # END_TIME in yyyymmddhhmmss
fields[13].dataType = IntegerType() # DOWNSTREAM_SIZE, in bytes
fields[92].dataType = BooleanType() # IS_CELL_CONGESTED, 0 or 1
schema = StructType(fields) # Create a schema object
# Build the DataFrame
log_txt = log_txt.filter(lambda line: line != header) # Remove header from the txt file
temp_var = log_txt.map(lambda k: k.split("\t"))
log_df = sqlContext.createDataFrame(temp_var, schema) # PROBLEMATIC LINE
私が抱えている問題は最後の行にあり、その最終ステップの前にいくつかのステップを逃しているのではないかと心配しています。
欠落しているステップを特定するのに役立ちますか?
コードの最後の行は多くのエラーを生成します。必要に応じてポストでそれらを更新します。
ファイル形式は(2行の例)
TRANSACTION_URL,RESPONSE_CODE,START_TIME,END_TIME,.... <more names>
http://www.google.com<\t seperator>0<\t seperator>20160609182001<\t seperator>20160609182500.... <more values>
http://www.cnet.com<\t seperator>0<\t seperator>20160609192001<\t seperator>20160609192500.... <more values>
また、データフレームの不要な列を削除したら、誰かが私を助けてくれますか?
ありがとう
少し考え過ぎていると思います。以下の例のように、より複雑でないものがあると想像してください
_`cat sample_data.txt`
field1\tfield2\tfield3\tfield4
0\tdog\t20160906182001\tgoogle.com
1\tcat\t20151231120504\tamazon.com
_
_sc.setLogLevel("WARN")
#setup the same way you have it
log_txt=sc.textFile("/path/to/data/sample_data.txt")
header = log_txt.first()
#filter out the header, make sure the rest looks correct
log_txt = log_txt.filter(lambda line: line != header)
log_txt.take(10)
[u'0\\tdog\\t20160906182001\\tgoogle.com', u'1\\tcat\\t20151231120504\\tamazon.com']
temp_var = log_txt.map(lambda k: k.split("\\t"))
#here's where the changes take place
#this creates a dataframe using whatever pyspark feels like using (I think string is the default). the header.split is providing the names of the columns
log_df=temp_var.toDF(header.split("\\t"))
log_df.show()
+------+------+--------------+----------+
|field1|field2| field3| field4|
+------+------+--------------+----------+
| 0| dog|20160906182001|google.com|
| 1| cat|20151231120504|Amazon.com|
+------+------+--------------+----------+
#note log_df.schema
#StructType(List(StructField(field1,StringType,true),StructField(field2,StringType,true),StructField(field3,StringType,true),StructField(field4,StringType,true)))
# now lets cast the columns that we actually care about to dtypes we want
log_df = log_df.withColumn("field1Int", log_df["field1"].cast(IntegerType()))
log_df = log_df.withColumn("field3TimeStamp", log_df["field1"].cast(TimestampType()))
log_df.show()
+------+------+--------------+----------+---------+---------------+
|field1|field2| field3| field4|field1Int|field3TimeStamp|
+------+------+--------------+----------+---------+---------------+
| 0| dog|20160906182001|google.com| 0| null|
| 1| cat|20151231120504|Amazon.com| 1| null|
+------+------+--------------+----------+---------+---------------+
log_df.schema
StructType(List(StructField(field1,StringType,true),StructField(field2,StringType,true),StructField(field3,StringType,true),StructField(field4,StringType,true),StructField(field1Int,IntegerType,true),StructField(field3TimeStamp,TimestampType,true)))
#now let's filter out the columns we want
log_df.select(["field1Int","field3TimeStamp","field4"]).show()
+---------+---------------+----------+
|field1Int|field3TimeStamp| field4|
+---------+---------------+----------+
| 0| null|google.com|
| 1| null|Amazon.com|
+---------+---------------+----------+
_
データフレームには、実際にそのフィールドを使用するかどうかに関係なく、データフィールドが渡されるすべてのフィールドの型が必要です。文字列の日付を実際のタイムスタンプに変換するには、spark.SQL関数のいずれかを使用する必要がありますが、それほど難しくはないはずです。
お役に立てれば
PS:特定の場合、初期データフレームを作成するには、try:log_df=temp_var.toDF(header.split(','))