温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Spark API编程中spark文件操作和debug是怎样的

发布时间:2021-12-16 22:06:14 来源:亿速云 阅读:85 作者:柒染 栏目:云计算

本篇文章为大家展示了Spark API编程中spark文件操作和debug是怎样的,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

这次 我们以指定executor-memory参数的方式来启动spark-shell:

Spark API编程中spark文件操作和debug是怎样的

Spark API编程中spark文件操作和debug是怎样的

从hdfs上读取文件:

Spark API编程中spark文件操作和debug是怎样的

可以看出MappedRDD是从HadoopRDD转换而来的

再看下textFile的源代码:

Spark API编程中spark文件操作和debug是怎样的

Spark API编程中spark文件操作和debug是怎样的

下面进行一个简单的wordcount操作:

Spark API编程中spark文件操作和debug是怎样的

再次使用toDebugString,查看下依赖关系:

HadoopRDD -> MappedRDD -> FlatMappedRDD ->  MappedRDD -> ShuffledRDD 

上述内容就是Spark API编程中spark文件操作和debug是怎样的,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注亿速云行业资讯频道。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI