Apache Spark 2.0を使用し、DetaSet
のスキーマに言及するためにcase class
を作成しています。 保存方法)に従ってカスタムエンコーダーを定義しようとしている場合データセットのカスタムオブジェクト? 、Java.time.LocalDate
の場合、次の例外が発生しました:
Java.lang.UnsupportedOperationException: No Encoder found for Java.time.LocalDate
- field (class: "Java.time.LocalDate", name: "callDate")
- root class: "FireService"
at org.Apache.spark.sql.catalyst.ScalaReflection$.org$Apache$spark$sql$catalyst$ScalaReflection$$serializerFor(ScalaReflection.scala:598)
at org.Apache.spark.sql.catalyst.ScalaReflection$$anonfun$9.apply(ScalaReflection.scala:592)
at org.Apache.spark.sql.catalyst.ScalaReflection$$anonfun$9.apply(ScalaReflection.scala:583)
at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241)
at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241)
at scala.collection.immutable.List.foreach(List.scala:381)
at scala.collection.TraversableLike$class.flatMap(TraversableLike.scala:241)
............
以下はコードによるものです:
case class FireService(callNumber: String, callDate: Java.time.LocalDate)
implicit val localDateEncoder: org.Apache.spark.sql.Encoder[Java.time.LocalDate] = org.Apache.spark.sql.Encoders.kryo[Java.time.LocalDate]
val fireServiceDf = df.map(row => {
val dateFormatter = Java.time.format.DateTimeFormatter.ofPattern("MM/dd /yyyy")
FireService(row.getAs[String](0), Java.time.LocalDate.parse(row.getAs[String](4), dateFormatter))
})
Spark用のサードパーティAPIのエンコーダーをどのように定義できますか?
更新
ケースクラス全体のエンコーダーを作成するとき、df.map..
は、以下のようにオブジェクトをバイナリーにマップします。
implicit val fireServiceEncoder: org.Apache.spark.sql.Encoder[FireService] = org.Apache.spark.sql.Encoders.kryo[FireService]
val fireServiceDf = df.map(row => {
val dateFormatter = Java.time.format.DateTimeFormatter.ofPattern("MM/dd/yyyy")
FireService(row.getAs[String](0), Java.time.LocalDate.parse(row.getAs[String](4), dateFormatter))
})
fireServiceDf: org.Apache.spark.sql.Dataset[FireService] = [value: binary]
FireServiceのマップを期待していますが、マップのバイナリを返します。
最後のコメントにあるように、「クラスにフィールドバーが含まれている場合は、オブジェクト全体にエンコーダが必要です」。 FireService
自体に暗黙のエンコーダーを提供する必要があります。それ以外の場合、Spark SQLImplicits.newProductEncoder[T <: Product : TypeTag]: Encoder[T]
を使用して作成します。タイプから、フィールドにimplicit
エンコーダーパラメーターを使用していないことがわかります。 t localDateEncoder
の存在を使用します。
これを処理するためにSparkを変更できます。 Shapelessライブラリを使用するか、マクロを直接使用します。これが将来の計画かどうかはわかりません。