Spark sql/hiveContextなしでgroupby-havingを使用するための構文は何ですか?
_DataFrame df = some_df
df.registreTempTable("df");
df1 = sqlContext.sql("SELECT * FROM df GROUP BY col1 HAVING some stuff")
_
しかし、どのように私はそれを次のような構文で行うのですか?
_df.select(df.col("*")).groupBy(df.col("col1")).having("some stuff")
_
この.having()
は存在しないようです。
はい、存在しません。同じロジックをagg
の後にwhere
を付けて表現します。
df.groupBy(someExpr).agg(somAgg).where(somePredicate)
たとえば、各カテゴリの製品を検索したい場合、手数料が3200未満で、その数が10以上であってはなりません。
sqlContext.sql("select Category,count(*) as
count from hadoopexam where HadoopExamFee<3200
group by Category having count>10")
from pyspark.sql.functions import *
df.filter(df.HadoopExamFee<3200)
.groupBy('Category')
.agg(count('Category').alias('count'))
.filter(column('count')>10)