Spark - Spark Submit使用

Spark Submit用于启动集群中的应用程序,他的运行命令跟Spark Shell差不多。

./bin/spark-submit \ --class \ --master \ --deploy-mode \ --conf = \ ... # other options \ [application-arguments]

  • --class:应用程序的入口
  • --master:master URL,这个同Spark Shell
  • application-jar:jar包地址
  • application-arguments:应用程序入口的参数
其他参数也和Spark Shell差不多,可以通过$SPARK_HOME/bin/spark-submit --help查看。
下面我们用Spark自带的程序来计算Pi。类似的例子可以参考官网
$SPARK_HOME/bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://bigdata01:7077,bigdata03:7077 \ --executor-memory 512m \ --total-executor-cores 2 \ $SPARK_HOME/examples/jars/spark-examples_2.11-2.4.5.jar \ 100

【Spark - Spark Submit使用】运行过程中的web界面,运行时通过http://bigdata01:4040/jobs 访问:
Spark - Spark Submit使用
文章图片

运行结果如下:
Spark - Spark Submit使用
文章图片

http://bigdata01:8080/可以看到,已经完成了两次Applications,在Completed Applications中还可以看到运行的信息
Spark - Spark Submit使用
文章图片

    推荐阅读