私はパンダのバックグラウンドから来たもので、CSVファイルからデータフレームにデータを読み込んでから、単純なコマンドを使用して列名を便利なものに変更することに慣れています。
df.columns = new_column_name_list
ただし、sqlContextを使用して作成されたpysparkデータフレームでも同じことは機能しません。これを簡単に行うために私が考え出すことができる唯一の解決策は次のとおりです。
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)
これは基本的に変数を2回定義し、最初にスキーマを推測し、次に列名を変更し、そして更新されたスキーマでデータフレームを再度ロードすることです。
私たちがパンダのようにこれを行うためのより良いそしてより効率的な方法はありますか?
私のスパークバージョンは1.5.0です
それには多くの方法があります。
オプション1。 selectExpr を使用します。
data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)],
["Name", "askdaosdka"])
data.show()
data.printSchema()
# Output
#+-------+----------+
#| Name|askdaosdka|
#+-------+----------+
#|Alberto| 2|
#| Dakota| 2|
#+-------+----------+
#root
# |-- Name: string (nullable = true)
# |-- askdaosdka: long (nullable = true)
df = data.selectExpr("Name as name", "askdaosdka as age")
df.show()
df.printSchema()
# Output
#+-------+---+
#| name|age|
#+-------+---+
#|Alberto| 2|
#| Dakota| 2|
#+-------+---+
#root
# |-- name: string (nullable = true)
# |-- age: long (nullable = true)
オプション2: withColumnRenamed を使用すると、このメソッドで同じ列を「上書き」できるようになります。
oldColumns = data.schema.names
newColumns = ["name", "age"]
df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
df.printSchema()
df.show()
オプション3. alias を使う、Scalaでは を として使うこともできます。
from pyspark.sql.functions import col
data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
data.show()
# Output
#+-------+---+
#| name|age|
#+-------+---+
#|Alberto| 2|
#| Dakota| 2|
#+-------+---+
オプション4: sqlContext.sql を使用すると、テーブルとして登録されたDataFrames
に対してSQLクエリを使用できます。
sqlContext.registerDataFrameAsTable(data, "myTable")
df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
df2.show()
# Output
#+-------+---+
#| name|age|
#+-------+---+
#|Alberto| 2|
#| Dakota| 2|
#+-------+---+
df = df.withColumnRenamed("colName", "newColName")
.withColumnRenamed("colName2", "newColName2")
この方法を使用する利点:列のリストが長い場合は、少数の列名だけを変更します。これは、これらのシナリオでは非常に便利です。重複する列名を持つテーブルを結合するときに非常に役立ちます。
すべての列名を変更したい場合は、df.toDF(*cols)
を試してください。
あなたがすべての列名に単純な変換を適用したい場合は、このコードはトリックを行います。
new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))
df = df.toDF(*new_column_name_list)
@ user8117731がtoDf
のトリックをありがとう。
単一の列の名前を変更して残りをそのままにしたい場合は、次のようにします。
from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])
df.withColumnRenamed('age', 'age2')
import pyspark.sql.functions as F
を使用して1つの列だけの名前を変更するもう1つの方法:
df = df.select( '*', F.col('count').alias('new_count') ).drop('count')
これが私が使ったアプローチです。
pysparkセッションを作成してください。
import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()
データフレームを作成します。
df = spark.createDataFrame(data = [('Bob', 5.62,'juice'), ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])
列名を付けてdfを表示します。
df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob| 5.62|juice|
| Sue| 0.85| milk|
+----+------+-----+
新しい列名を使ってリストを作成します。
newcolnames = ['NameNew','AmountNew','ItemNew']
dfの列名を変更します。
for c,n in Zip(df.columns,newcolnames):
df=df.withColumnRenamed(c,n)
新しい列名でdfを表示します。
df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
| Bob| 5.62| juice|
| Sue| 0.85| milk|
+-------+---------+-------+
私はこれを使う:
from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()
誰かがそれを使用したい場合に備えて、私はpysparkデータフレームのために複数のカラムの名前を変更するための使いやすい関数を作りました:
def renameCols(df, old_columns, new_columns):
for old_col,new_col in Zip(old_columns,new_columns):
df = df.withColumnRenamed(old_col,new_col)
return df
old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)
注意してください、両方のリストは同じ長さでなければなりません。
単一列の名前変更では、toDF()を使用できます。例えば、
df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()