温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

用python写spark的方法是什么

发布时间:2020-08-18 13:42:14 来源:亿速云 阅读:160 作者:小新 栏目:编程语言

用python写spark的方法是什么?这个问题可能是我们日常学习或工作经常见到的。希望通过这个问题能让你收获颇深。下面是小编给大家带来的参考内容,让我们一起来看看吧!

为什么要使用Python来写Spark

Python写spark我认为唯一的理由就是:你要做数据挖掘,AI相关的工作。因为很多做数挖的他们的基础语言都是python,他们如果重新学scala比较耗时,而且,python他的强大类库是他的优势,很多算法库只有python有。

Win本地编写代码调试

编辑器:PyCharm

Spark:1.6

Python:2.7

Win环境准备

Python的安装

解压python包,在环境变量里面配上bin的路径

Spark的安装

下载spark的bin文件,解压即可,在环境变量配置SPARK_HOME

要可以通过编辑器来安装,如pycharm,查找pyspark库安装即可

Hadoop安装

安装hadoop环境 。在win下面需要winutils.exe;在环境里面配置HADOOP_HOME 即可。

代码示例

# -*- coding: utf-8 -*-
from __future__ import print_function
from pyspark import *
import os
print(os.environ['SPARK_HOME'])
print(os.environ['HADOOP_HOME'])
if __name__ == '__main__':
    sc = SparkContext("local[8]")
    rdd = sc.parallelize("hello Pyspark world".split(" "))
    counts = rdd \
        .flatMap(lambda line: line) \
        .map(lambda word: (word, 1)) \
        .reduceByKey(lambda a, b: a + b) \
        .foreach(print)
    sc.stop

问题:

from pyspark import *

找不到pyspark。那你需要把spark的bin包下面的python的所有都拷贝到(可能需要解压py4j)

%PYTHON%\Lib\site-packages下面去。这样,你的编辑器才能找到。

或者:

配置你的编辑器的环境变量:

PYTHONPATH=F:\home\spark-1.6.0-bin-hadoop2.6\python;F:\python2.7\Lib\site-packages

使用spark-submit提交时用到其他类库 –py-files xxxx/xxxx.zip,xxxx.py。

感谢各位的阅读!看完上述内容,你们对用python写spark的方法是什么大概了解了吗?希望文章内容对大家有所帮助。如果想了解更多相关文章内容,欢迎关注亿速云行业资讯频道。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI