コードからaws
を介して実行されるSparkContext
パラメーターを設定します。
sc.hadoopConfiguration.set("fs.s3a.access.key", vault.user)
sc.hadoopConfiguration.set("fs.s3a.secret.key", vault.key)
ただし、カスタムSparkランチャーフレームワークがあり、すべてのカスタムSpark構成を--conf
パラメーターを介してspark-submit
に実行する必要があります。コマンドライン。
SparkContextに「通知」して--conf
値を一般的なhadoopConfiguration
ではなくSparkConf
に設定する方法はありますか?の線に沿って何かを探しています
spark-submit --conf hadoop.fs.s3a.access.key $vault.user --conf hadoop.fs.s3a.access.key $vault.key
または
spark-submit --conf hadoopConfiguration.fs.s3a.access.key $vault.user --conf hadoopConfiguration.fs.s3a.access.key $vault.key
コマンドライン(またはSparkConf
オブジェクト)でHadoop構成の前にspark.hadoop.
を付ける必要があります。例えば:
spark.hadoop.fs.s3a.access.key=value