#

hdfs

  • 4、Intelij+Maven搭建Hadoop项目

    1创建工程 点击project——Maven——next 2通过maven导入项目依赖jar包 (1)设置maven自动导入依赖jar包勾选 Import Maven projects automa

    作者:victor19901114
    2020-06-29 07:40:39
  • 【总结】Hadoop配置文件hdfs-site.xml

    dfs.ha.automatic-failover.enabledtrue

    作者:巧克力黒
    2020-06-29 05:11:53
  • 第85课:基于HDFS的SparkStreaming案例实战和内幕源码解密

    一:Spark集群开发环境准备启动HDFS,如下图所示: 通过web端查看节点正常启动,如下图所示:2.启动Spark集群,如下图所示:通过web端查看集群启动正常,如下图所示:3.启动st

    作者:Spark_2016
    2020-06-27 06:00:35
  • 大数据生态学习__HS&MR

    Hadoop:版本迭代较快,最新为3.0版本,本次学习以2.0为主;

    作者:perfectgum
    2020-06-25 16:33:38
  • hdfs数据误删分析与恢复

    一、相关参数:1、core-site.xml  文件修改以下配置项:      fs

    作者:zouqingyun
    2020-06-23 11:10:35
  • 大数据分布式计算--hadoop

     Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop 核心

    作者:yi003958
    2020-06-22 09:36:11
  • Hadoop运维记录系列(二十七)

    记录一个调试 pyspark2sql 访问 HDFS 透明加密的问题。访问源码如下,使用 pyspark2.1.3,基于 CDH 5.14.0 hive 1.1.0 + parquet,其中selec

    作者:Slaytanic
    2020-06-21 17:50:19
  • 修改hadoop/hdfs日志级别

    描述:If a large directory is deleted and namenode is immediately restarted, there are a lot of blocks

    作者:DearArvin
    2020-06-19 04:26:20
  • RDBMS数据定时采集到HDFS

    [toc] RDBMS数据定时采集到HDFS 前言 其实并不难,就是使用sqoop定时从MySQL中导入到HDFS中,主要是sqoop命令的使用和Linux脚本的操作这些知识。 场景 在我们的场景中

    作者:xpleaf
    2020-06-17 20:08:27
  • hdfs namenode HA高可用方案

    2019/2/18 星期一 hdfs namenode HA高可用方案 1、hadoop-ha 集群运作机制介绍所谓HA,即高可用(7*24 小时不中断服务) //hadoop 2.x 内置了

    作者:马吉辉
    2020-06-17 00:31:58