运行Spark例子程序是怎样实现的

运行Spark例子程序是怎样实现的,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

专注于为中小企业提供成都网站制作、网站建设服务,电脑端+手机端+微信端的三站合一,更高效的管理,为中小企业月湖免费做网站提供优质的服务。我们立足成都,凝聚了一批互联网行业人才,有力地推动了近1000家企业的稳健成长,帮助中小企业通过网站建设实现规模扩充和转变。

一、安装和配置

下载并解压Spark到指定目录,如果没有安装JDK、Scala,需要先下载JDK、Scala到指定目录,并设置SPKARK_HOME(JAVA_HOME、SCALA_HOME).

二、启动Spark或Spark集群

如果只是在单节点上运行Spark,无需启动Spark,直接按『三、运行例子程序』运行即可。 如若需要在集群上运行Spark例子程序,需要先启动Spark集群。将已经可以互相无密码登陆的从节点名(或IP地址)加入到主节点的conf/slaves文件中,再将配置好的主节点的Spark的整个目录拷贝到其他所有从节点。在直接运行启动集群脚本:

./start-all.sh
# 关闭集群    
./stop-all.sh

二、运行例子程序

1. 在单节点上运行

在单个节点上运行例子无需启动集群:

./bin/run-example SparkPi 10
./bin/run-example graphx.LiveJournalPageRank follower.txt --numEPart=2
# 运行Python的例子程序
./bin/spark-submit examples/src/main/python/pi.py 10
./bin/spark-submit examples/src/main/python/PageRank.py follower.txt 10
2. 提交到集群上运行

./bin/spark-submit --master spark://A281:7077 --class org.apache.spark.examples.graphx.LiveJournalPageRank lib/spark-examples-1.6.0-hadoop2.6.0.jar followers.txt --numEPart=2

关于运行Spark例子程序是怎样实现的问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注创新互联行业资讯频道了解更多相关知识。


新闻名称:运行Spark例子程序是怎样实现的
链接分享:http://myzitong.com/article/gigide.html