タイトルどおり、どのバージョンのsparkがCentOSにインストールされているかを知るにはどうすればよいですか?
現在のシステムにはcdh5.1.0がインストールされています。
Spark-Shellを使用する場合、最初にバナーに表示されます。
プログラム的に、SparkContext.version
を使用できます。
Spark-submitコマンドを使用できます:spark-submit --version
使用
spark.version
spark
変数はSparkSession
オブジェクトのものです
spark-Shell
の開始時にコンソールログを使用する[root@bdhost001 ~]$ spark-Shell
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel).
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.2.0
/_/
spark-Shell --version
[root@bdhost001 ~]$ spark-Shell --version
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.2.0
/_/
Type --help for more information.
spark-submit --version
[root@bdhost001 ~]$ spark-submit --version
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.2.0
/_/
Type --help for more information.
Databricksを使用してノートブックと話している場合は、次を実行します。
spark.version
以下を使用してsparkバージョンを取得します
spark-submit --version
Zeppelin Notebookを使用している場合は、次を実行できます。
sc.version
scalaのバージョンも知るために実行できます:
util.Properties.versionString
どちらのシェルコマンドを使用しても、spark-Shellまたはpysparkのいずれかを使用すると、Sparkロゴとその横にバージョン名が表示されます。
$ pyspark
$ Python 2.6.6(r266:84292、2015年5月22日、08:34:51)[GCC 4.4.7 20120313(Red Hat 4.4.7-15)] on linux2。 ........... ...........へようこそ
バージョン1.3.0
Pysparkを使用している場合、使用されているsparkバージョンは、以下に示すように太字のSparkロゴの横に表示されます。
manoj@hadoop-Host:~$ pyspark
Python 2.7.6 (default, Jun 22 2015, 17:58:13)
[GCC 4.8.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel).
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/__ / .__/\_,_/_/ /_/\_\ version 1.6.0
/_/
Using Python version 2.7.6 (default, Jun 22 2015 17:58:13)
SparkContext available as sc, HiveContext available as sqlContext.
>>>
sparkバージョンを明示的に取得する場合は、以下に示すようにSparkContextのバージョンメソッドを使用できます。
>>>
>>> sc.version
u'1.6.0'
>>>