Spark - Spark Submit使用
Spark Submit用于启动集群中的应用程序,他的运行命令跟Spark Shell差不多。
./bin/spark-submit \
--class \
--master \
--deploy-mode \
--conf = \
... # other options
\
[application-arguments]
- --class:应用程序的入口
- --master:master URL,这个同Spark Shell
- application-jar:jar包地址
- application-arguments:应用程序入口的参数
$SPARK_HOME/bin/spark-submit --help
查看。下面我们用Spark自带的程序来计算Pi。类似的例子可以参考官网
$SPARK_HOME/bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://bigdata01:7077,bigdata03:7077 \
--executor-memory 512m \
--total-executor-cores 2 \
$SPARK_HOME/examples/jars/spark-examples_2.11-2.4.5.jar \
100
【Spark - Spark Submit使用】运行过程中的web界面,运行时通过http://bigdata01:4040/jobs 访问:
文章图片
运行结果如下:
文章图片
http://bigdata01:8080/可以看到,已经完成了两次Applications,在Completed Applications中还可以看到运行的信息
文章图片
推荐阅读
- 由浅入深理解AOP
- 【译】20个更有效地使用谷歌搜索的技巧
- mybatisplus如何在xml的连表查询中使用queryWrapper
- MybatisPlus|MybatisPlus LambdaQueryWrapper使用int默认值的坑及解决
- MybatisPlus使用queryWrapper如何实现复杂查询
- iOS中的Block
- Linux下面如何查看tomcat已经使用多少线程
- 使用composer自动加载类文件
- android|android studio中ndk的使用
- 使用协程爬取网页,计算网页数据大小