#

spar

  • Spark SQL 使用beeline访问hive仓库

    一、添加hive-site.xml 在$SPARK_HOME/conf下添加hive-site.xml的配置文件,目的是能正常访问hive的元数据 vim hive-site.xml

    作者:Stitch_x
    2020-06-21 16:57:46
  • HADOOP/HBASE/SPARK修改PID文件位置

    当不修改HADOOP/HBASE/SPARK的PID文件位置时,系统默认会把PID文件生成到/tmp目录下,但是/tmp目录在一段时间后会被删除,所以以后当我们停止HADOOP/HBASE/SPARK

    作者:谁伴我闯荡
    2020-06-21 12:45:50
  • spark安装配置

    在装spark之前先装Scala  Scala 的安装在hadoop安装配置中已经介绍了1、下载spark安装包 下载地址如下http://spark.apache.org/download

    作者:sherry20150511
    2020-06-21 11:03:09
  • Spark CheckPoint彻底解密(41)

    一、Checkpoint到底是什么?1, Spark在生产环境下经常会面临Tranformations的RDD非常多(例如一个Job中包含1万个RDD)或者具体Tranformation产生

    作者:lct19910210
    2020-06-18 20:36:39
  • 大数据分布式平台Hadoop2.7.7 + Spark2.2.2搭建

    Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapRedu

    作者:兴趣e族
    2020-06-17 03:42:46
  • Spark 系列(七)—— 基于 ZooKeeper 搭建 Spark 高可用集群

    一、集群规划 这里搭建一个 3 节点的 Spark 集群,其中三台主机上均部署 Worker 服务。同时为了保证高可用,除了在 hadoop001 上部署主 Master 服务外,还在 hadoop0

    作者:heibaiying
    2020-06-16 21:49:09
  • Spark入门及安装与配置

    以下是老男孩教育编写的大数据资料,转载请注明出处:http://www.oldboyedu.comHadoopHadoop是分布式计算引擎,含有四大模块,common、hdfs、mapreduce和y

    作者:qq5b6035c07595e
    2020-06-16 18:25:52
  • Spark1.4源码走读笔记之模式匹配

    RDD里的模式匹配:def hasNext: Boolean = (thisIter.hasNext, otherIter.hasNext) match {      &

    作者:moviebat
    2020-06-15 23:49:49
  • Spark Broadcast运行机制解密(42)

     一、Broadcast彻底解密    1、Broadcast就是将数据从一个节点发送到其他节点。   2、Broadcast是分布式的共享数据,默认

    作者:lct19910210
    2020-06-15 20:12:03
  • 二、spark--spark core原理与使用

    [TOC] 一、spark中一些基本术语 RDD:弹性分布式数据集,是spark的核心重点算子:操作RDD的一些函数application:用户的写的spark程序(DriverProgram + E

    作者:隔壁小白
    2020-06-14 17:12:11