温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Impala的特点有哪些

发布时间:2021-12-16 15:03:23 来源:亿速云 阅读:131 作者:iii 栏目:云计算

本篇内容主要讲解“Impala的特点有哪些”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Impala的特点有哪些”吧!

Impala 是参照google 的新三篇论文Dremel(大批量数据查询工具)的开源实现,功能类似shark(依赖于hive)和Drill(apache),impala 是clouder 公司主导开发并开源,基于hive 并使用内存进行计算,兼顾数据仓库,具有实时,批处理,多并发等优点。是使用cdh 的首选PB 级大数据实时查询分析引擎。(Impala 依赖cdh 是完全没有问题的,官网说可以单独运行,但是他单独运行会出现好多的问题)


Impala与Shark、sparkSQL、Drill等的简单比较
Impala的特点有哪些

  • Impala起步较早,目前能够商用的为数不多的大数据查询引擎之一;

  • CDH5不支持sparkSQL;

  • Drill起步晚,尚不成熟;

  • shark功能和架构上同Impala相似,该项目已经停止开发。

Impala特点

  • 基于内存进行计算,能够对PB级数据进行交互式实时查询/分析;

  • 无需转换为MR,直接读取HDFS数据

  • C++编写,LLVM统一编译运行

  • 兼容HiveSQL

  • 具有数据仓库的特性,可对hive数据直接做数据分析

  • 支持Data Local

  • 支持列式存储

  • 支持JDBC/ODBC远程访问

  • 支持sql92标准,并具有自己的解析器和优化器Impala的特点有哪些

    Impala的特点有哪些

    Impala核心组件

    对于impala 来讲,是没有主节点的,而要理解主节点,impala statestore 和catalog server两个角色,就具备集群调节的功能,根据以上的特点,对impala 进行配置优化配置impala 内存,每一个deamon 都需要配置内存,因为真正做查询工作的就是deamon 所在的节点,所以impala 的总内存,就是所有deamon 节点的内存之和;如果要在哪台机器上面汇总,就需要在那一台机器上的内存调大一些;我们了解到的,真正提供查询的是deamon,那么我们连接哪一台呢?Impala,你可以连接其中deamon 任何一个都行,可以根据自己的需求来,(1)当你查询的量相对大的时候,你就连接内存大的机器,(2)当每台机器都适合查询的情况下也可以随机找一台机器,自己写一个轮询或者权重算法;解决高并发问题

    • Statestore Daemon

      • 负责收集分布在集群中各个impalad 进程的资源信息,各节点健康状况、同步节点信息.
        负责query 的调度.(并非绝对,倘若他存在,那就帮忙,若不存在,那就不用他)
        对于一个正常运转的集群,并不是一个关键进程.

    • Catalog Daemon(1.2 版本之后才加入)

      • 把impala表的metadata分发到各个impalad 中,说他是基于hive 的,所以就需要metadata数据分到impalad 中,以前没有此进程,就是手动来进行同步的。虽然之后加入了,但是也没有那么智能,并不是保证所有的数据都能同步,比如你插入一些数据,他可以把数据发到其他节点,但是比如创建表ddl 语句,建议去手动做一下接收来自statestore 的所有请求,当impala deamon节点插入或者查询数据时候(数据改变的时候),他把自己的操作结果汇报给state deamon,然后state store 请求catelog deamon,告知重新更新元数据信息给impalad 中,所以catalog deamon 与statedeamon 放到一台机器上,而且不建议在此机器上再去安装impala deamon 进程,避免造成提供查询造成集群管理出问题

    • Impala Daemon(主要来提供查询)

      • 主要接收查询请求,接收client、hue、jdbc 或者odbc 请求、query 执行并返回给中心协调节点(对应的服务实例是impalad)子节点上的守护进程,负责向statestore 保持通信,汇报工作Impala的特点有哪些

        • Client(shell,jdbc,odbc)发送请求到impalad 进程上,发送节点可以是随机的,impalad 之间,也有相互通信

        • Statestore 和catelog 划到同一节点,目的就是这两个进程在协调工作时候,避免因网络问题造成失败

        • Hive metastore 是比较重要的,此时statestore 和catelog 通信,将数据同步到其他节点

        • Impalad 最好与hdfsDataNode 在同一节点,这样能更快速的查询计算,然后返回结果即可(理想状态的就是数据本地化)

          • Query planner(查询解析器)

          • ii. Query coordinator(中心协调节点)

          • Query executor(查询执行器)

          • 将我们的字符串sql 语句解释成为执行计划,

          • 由这个组件来指定来查询的主节点(头),指定好之后通知其他节点我的主节点作用,待你们查询完成之后的结果,返回给头节点

          • 而做查询工作的是就是executor

          • Impalad 里面包含三个组件

        impala 外部shell

        • -h(--help)帮助-------查看所有命令的帮助文档

        • -r(--refresh_after_connect)刷新所有元数据(当hive 创建数据的时候,你需要刷新到,才能看到hive 元数据的改变)整体刷新*---全量刷新,万不得已才能用;不建议定时去刷新hive 源数据,数据量太大时候,一个刷新,很有可能会挂掉;创建hive 表,然后刷新。

        • -B(--delimited)去格式化输出* 大量数据加入格式化,性能受到影响

          • --output_delimiter=character 指定分隔符与其他命令整合

          • --print_header 打印列名(去格式化,但是显示列名字)

        • -v 查看对应版本(会有坑)

          • Impala 的查询会以最新版本为准,如果版本不一致,会造成查询结果失败

          • mpala-shell 与impala 的版本查看,必须版本一致

        • -f 执行查询文件*

          select name,count(name) as name_count from person group by name--创建包含该sql的文件

           

          • --query_file 指定查询文件(建议sql 语句写到一行,因为shell 会读取文件一行一行的命令)

          • Impala-shell --query_file=xxx

        • -i 连接到对应的impalad

          • --impalad 指定impalad 去执行任务

          • --fe_port 指定备用端口(通常不用去指定)

        • -o 保存执行结果到文件***

          • --output_file 指定输出文件名

        • 组合应用:

          impala-shell -B --Print_header -f test.sss -o result.txt
          Impala-shell -B -f test.xxx -o result.txt

          非重要的shell

          • Impala-shell --user root

          • Impala-shell -d database(database 指定数据库名称)

          • --quiet 不显示多余信息

            impala-shell -q "select * from impala.rstest limit 5">


             

          • --user 指定用户执行shell 命令

          • --ssl 通过ssl 验证方式方式执行

          • --ca_cert 指定第三方用户证书

          • --config_file 临时指定配置文件

          • -u 执行某一用户运行impala-shell

          • -p 显示执行计划

          • -q 不进入impala-shell 执行查询

          • -c 忽略错误语句继续执行

          • -d 指定进入某一个数据库

          • mpala-shell 命令用法:

        Impala-shell(内部shell)

        • 帮助选项

          • help

        • 连接到某个impalad 实例

          • connect <hostname>

        • 刷新某个表元数据

          • *refresh <tablename> //属于增量刷新

        • 刷新元数据库

          • *invalidate metadata //全量刷新,性能消耗较大

        • 显示一个查询的执行计划及各步骤信息

          • *explain <sql> //可以设置set explain_level 四个级别0开始,一般用2级别即可,查看执行计划等详细信息

        • 不退出impala-shell 执行操作系统命令

          • shell <shell>

          • shell ls

        • 显示查询底层信息(底层执行计划,用于性能优化)

          • *profile //在查询完成之后执行

        • 执行计划存储下来分析

          impala-shell -q "select name from person" -p >> impalalog.123


        • 查看StateStore(监控管理)

          • – http://cdh2:25020/


             

        • 查看Catalog(监控管理)

          • – http://cdh3:25010/


             

        Impala 存储与分区

        • 需要注意的是impala 除了全部支持hive 的文件类型,自己还支持parquet 这样的文件类型,当然了,这个类型并不是impala 自己独有的,比如spark sql,shark sql 都支持这样的类型;Rcfile 本身快一些,但是不如text 才做起来更方便Impala的特点有哪些

        • 压缩方式

        • 添加分区方式

          --1、partitioned by 创建表时,添加该字段指定分区列表
          --2、使用alter table 进行分区的添加和删除操作
          • create table t_person(id int, name string, age int) partitioned by (type string);
          • alter table t_person add partition (type='man');
          • alter table t_person drop partition (type='man');
          • alter table t_person drop partition (sex='man',type='boss');


        • 分区内添加数据

          insert into t_person partition (type='boss') values (1,'zhangsan',18),(2,'lisi',23)
          
          insert into t_person partition (type='coder') values
          (3,'wangwu',22),(4,'zhaoliu’,28),(5,'tianqi',24)


        • 查询指定分区数据

          select id,name from t_person where type='coder'


           

        impala-SQL、JDBC、性能优化

        • 加载数据:

          • insert 语句:插入数据时每条数据产生一个数据文件,不建议用此方式加载批量数据

          • load data 方式:在进行批量插入时使用这种方式比较合适

          • 来自中间表:此种方式使用于从一个小文件较多的大表中读取文件并写入新的表生产少量的数据文件。也可以通过此种方式进行格式转换。

        • 空值处理:

        • impala 将“\n”表示为NULL,在结合sqoop 使用是注意做相应的空字段过滤,也可以使用以下方式进行处理:

          alter table name set tblproperties (“serialization.null.format”=“null”)


           

        • 配置:

          – impala.driver=org.apache.hive.jdbc.HiveDriver
          – impala.url=jdbc:hive2://node2:21050/;auth=noSasl
          – impala.username=
          – impala.password=


           

        • 尽量使用PreparedStatement执行SQL语句:

          • 性能上PreparedStatement要好于Statement

          • Statement存在查询不出数据的情况

        • 执行计划

        • – 查询sql执行之前,先对该sql做一个分析,列出需要完成这一项查询的
          详细方案(命令:explain sql、profile)Impala的特点有哪些

        总结:

        1、SQL优化,使用之前调用执行计划
        2、选择合适的文件格式进行存储
        3、避免产生很多小文件(如果有其他程序产生的小文件,可以使用中间
        表)
        4、使用合适的分区技术,根据分区粒度测算
        5、使用compute stats进行表信息搜集
        6、网络io的优化:
            a.避免把整个数据发送到客户端
            b.尽可能的做条件过滤
            c.使用limit字句
            d.输出文件时,避免使用美化输出
        7、使用profile输出底层信息计划,在做相应环境优化

        Impala SQL VS HiveQL

        • 支持数据类型

          • INT

          • TINYINT

          • SMALLINT

          • BIGINT

          • BOOLEAN

          • CHAR

          • VARCHAR

          • STRING

          • FLOAT

          • DOUBLE

          • REAL

          • DECIMAL

          • TIMESTAMP

        • CDH5.5版本以后才支持一下类型

          • ARRAY

          • MAP

          • STRUCT

          • Complex

        • 此外,Impala不支持HiveQL以下特性:

          • covar_pop, covar_samp, corr, percentile,percentile_approx, histogram_numeric, collect_set

          • Impala仅支持:AVG,COUNT,MAX,MIN,SUM

          • – 多Distinct查询

          • – HDF、UDAF

          • – 可扩展机制,例如:TRANSFORM、自定义文件格式、自定义SerDes

          • – XML、JSON函数

          • – 某些聚合函数:

        Impala SQL(和Hive类似)

        • 视图

          • 不能向impala的视图进行插入操作

          • insert 表可以来自视图

          • – 创建视图:create view v1 as select count(id) as total from tab_3 ;

          • – 查询视图:select * from v1;

          • – 查看视图定义:describe formatted v1

        到此,相信大家对“Impala的特点有哪些”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI