sparkstreaming测试之一使用本地数据源
直接上代码吧
10年积累的成都网站制作、网站建设经验,可以快速应对客户对网站的新想法和需求。提供各种问题对应的解决方案。让选择我们的客户得到更好、更有力的网络服务。我虽然不认识你,你也不认识我。但先网站制作后付款的网站建设流程,更有广河免费网站建设让你可以放心的选择与我们合作。
说下测试思路:
该代码监控的/tmp/sparkStream/目录;
首先,创建该目录mkdir -p /tmp/sparkStream;
然后,运行spark程序;
最后,向监控目录/tmp/sparkStream/添加数据文件;
观察spark程序运行效果。
sparkStreaming import org.apache.log4j.{LoggerLevel} import org.apache.spark.SparkConf import org.apache.spark.streaming.{SecondsStreamingContext} import org.apache.spark.streaming.StreamingContext._ object HdfsWordCount { def main(args: Array[]){ Logger.getLogger("org.apache.spark").setLevel(Level.WARN) Logger.getLogger("org.apache.eclipse.jetty.server").setLevel(Level.OFF) sparkConf = SparkConf().setAppName().setMaster() ssc = StreamingContext(sparkConf()) lines = ssc.textFileStream() words = lines.flatMap(_.split()) wordCounts = words.map(x=>(x)).reduceByKey(_+_) wordCounts.print() ssc.start() ssc.awaitTermination() } }
文章题目:sparkstreaming测试之一使用本地数据源
本文URL:http://myzitong.com/article/jehjsi.html