DataFrame
から列を取得してRDD[Vector]
に変換しようとしています。
問題は、次のデータセットとして、名前に「ドット」が含まれる列があることです。
"col0.1","col1.2","col2.3","col3.4"
1,2,3,4
10,12,15,3
1,12,10,5
これは私がやっていることです:
val df = spark.read.format("csv").options(Map("header" -> "true", "inferSchema" -> "true")).load("C:/Users/mhattabi/Desktop/donnee/test.txt")
val column=df.columns.map(c=>s"`${c}`")
val rows = new VectorAssembler().setInputCols(column).setOutputCol("vs")
.transform(df)
.select("vs")
.rdd
val data =rows.map(_.getAs[org.Apache.spark.ml.linalg.Vector](0))
.map(org.Apache.spark.mllib.linalg.Vectors.fromML)
val mat: RowMatrix = new RowMatrix(data)
//// Compute the top 5 singular values and corresponding singular vectors.
val svd: SingularValueDecomposition[RowMatrix, Matrix] = mat.computeSVD(mat.numCols().toInt, computeU = true)
val U: RowMatrix = svd.U // The U factor is a RowMatrix.
val s: Vector = svd.s // The singular values are stored in a local dense vector.
val V: Matrix = svd.V // The V factor is a local dense matrix.
println(V)
名前にドットが含まれている列を検討するための支援をお願いします。
問題が列名の.(dot)
である場合は、`(backticks)
を使用して列名を囲むことができます。
df.select("`col0.1`")
ここでの問題はVectorAssembler
の実装であり、列自体ではありません。たとえば、ヘッダーをスキップできます。
val df = spark.read.format("csv")
.options(Map("inferSchema" -> "true", "comment" -> "\""))
.load(path)
new VectorAssembler()
.setInputCols(df.columns)
.setOutputCol("vs")
.transform(df)
または、VectorAssembler
に渡す前に列の名前を変更します。
val renamed = df.toDF(df.columns.map(_.replace(".", "_")): _*)
new VectorAssembler()
.setInputCols(renamed.columns)
.setOutputCol("vs")
.transform(renamed)
最後に、最良のアプローチはスキーマを明示的に提供することです:
import org.Apache.spark.sql.types._
val schema = StructType((0 until 4).map(i => StructField(s"_$i", DoubleType)))
val dfExplicit = spark.read.format("csv")
.options(Map("header" -> "true"))
.schema(schema)
.load(path)
new VectorAssembler()
.setInputCols(dfExplicit.columns)
.setOutputCol("vs")
.transform(dfExplicit)