温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Flink的常见问题诊断思路是什么

发布时间:2022-01-04 15:20:08 来源:亿速云 阅读:97 作者:柒染 栏目:大数据

Flink的常见问题诊断思路是什么,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

1.常见运维问题

1.1 作业运行环境

文中介绍的作业运行环境主要是在阿里巴巴集团内,构建在 Hadoop 生态之上的 Flink 集群,包含 Yarn、HDFS、ZK 等组件;作业提交模式采用 yarn per-job Detached 模式。

Flink的常见问题诊断思路是什么

  • 第1步,作业提交是通过 Flink Yarn Client,将用户所写的作业代码以及编译好的 jar 包上传到 HDFS 上;

  • 第2步 Flink Client 与 Yarn ResourceManager 进行通信,申请所需要的的 Container 资源;

  • 第3步,ResourceManager 收到请求后会在集群中的 NodeManager 分配启动 AppMaster 的 Container 进程,AppMaster 中包含 Flink JobManager 模块和 Yarn 通信的 ResourceManager 模块;

  • 第4步,在 JobManager 中根据作业的 JobGraph 生成 Execution Graph,ResourceManager 模块向 Yarn 的 ResourceManager 通信,申请 TaskManager 需要的 container 资源,这些 container 由 Yarn 的 NodeManger 负责拉起。每个 NodeManager 从 HDFS 上下载资源,启动 Container(TaskManager),并向 JobManager 注册;JobManger 会部署不同的 task 任务到各个 TaskManager 中执行。

■ 资源申请方式

  1. 指定资源大小
    提交时,指定每个 TaskManager、JobManager 使用多少内存,CPU 资源。

  2. 细粒度资源控制
    阿里巴巴集团内主要采用 ResourceSpec 方式指定每个 Operator 所需的资源大小,依据 task 的并发聚合成 container 资源向 Yarn 申请。

■  环境高可用

  1. JM 高可用,AppMaster(JobManager) 异常后,可以通过 Yarn 的 APP attempt 与 ZooKeeper 机制来保证高可用;

  2. 数据高可用,作业做 checkpoint 时,TaskManager 优先写本地磁盘,同时异步写到 HDFS;当作业再次启动时可以从 HDFS 上恢复到上次 checkpoint 的点位继续作业流程。

1.2 为什么我的作业延时了?

■ 时间类型

  • Processing time
    Processing time 是指 task 处理数据时所在机器的系统时间

  • Event time
    Event time 是指数据当中某一数据列的时间

  • Ingestion time
    Ingestion time 是指在 flink source 节点收到这条数据时的系统系统时间

■ 延时定义

自定义 Source 源解析中加入 Gauge 类型指标埋点,汇报如下指标:

  1. 记录最新的一条数据中的 event time,在汇报指标时使用当前系统时间 - event time。

  2. 记录读取到数据的系统时间-数据中的 event time,直接汇报差值。

delay = 当前系统时间 – 数据事件时间(event time) 

说明:反应处理数据的进度情况。

fetch_delay = 读取到数据的系统时间- 数据事件时间(event time)

说明:反应实时计算的实际处理能力。

■ 延时分析

Flink的常见问题诊断思路是什么

  • 从上游源头,查看每个源头并发情况

  • 是否上游数据稀疏导致

  • 作业性能问题

1.3 为什么我的作业 failover 了?

■ 作业 failover 主要分为两大类

Flink的常见问题诊断思路是什么

Flink Failover 主要有两类,一类是 Job ManagerFailover,还有一类是 Task ManagerFailover

1.4 作业无法提交、异常停止

■ 无法提交

  • Yarn 问题 – 资源限制

  • HDFS 问题 - Jar 包过大,HDFS 异常

  • JobManager 资源不足,无法响应 TM 注册

  • TaskManager 启动过程中异常

■ 异常停止-指标监控无法覆盖

  • 重启策略配置错误

  • 重启次数达到上限

2.处理方式

2.1 延时问题处理方式

Flink的常见问题诊断思路是什么

  • 通过 delay、fetch_delay 判断是否上游稀疏导致延时或者作业性能不足导致延时

  • 确定延时后,通过反压分析,找到反压节点

  • 分析反压节点指标参数

  • 通过分析 JVM 进程或者堆栈信息

  • 通过查看 TaskManager 等日志

■ 延时与吞吐

Flink的常见问题诊断思路是什么

  • 观察延时与 tps 指标之间关联,是否由于 tps 的异常增高,导致作业性能不足延时

■ 反压

  • 找到反压的源头。

  • 节点之间的数据传输方式 shuffle/rebalance/hash。

  • 节点各并发的吞吐情况,反压是不是由于数据倾斜导致。

  • 业务逻辑,是否有正则,外部系统访问等。IO/CPU 瓶颈,导致节点的性能不足。

■ 指标

Flink的常见问题诊断思路是什么

  • GC 耗时多长

  • 短时间内多次 GC

  • state 本地磁盘的 IO 情况

  • 外部系统访问延时等等

■ 堆栈

在 TaskManager 所在节点,查看线程 TID、CPU 使用情况,确定是 CPU,还是 IO 问题。


ps H -p ${javapid} -o user,pid,ppid,tid,time,%cpu,cmd
#转换为16进制后查看tid具体堆栈jstack ${javapid} > jstack.log

■ 常见处理方式

Flink的常见问题诊断思路是什么

  1. 增加反压节点的并发数。

  2. 调整节点资源,增加 CPU,内存。

  3. 拆分节点,将 chain 起来的消耗资源较多的 operator 拆分。

  4. 作业或集群优化,通过主键打散,数据去重,数据倾斜,GC 参数,Jobmanager 参数等方式调优。

2.2 作业 failover 分析

Flink的常见问题诊断思路是什么

  • 查看作业 failover 时打印的一些日志信息

  • 查看 failover 的 Subtask 找到所在 Taskmanager 节点

  • 结合 Job/Taskmanager 等日志信息

  • 结合 Yarn 和 OS 等相关日志

3.作业生命周期

3.1 作业状态变化-JobStatus

Flink的常见问题诊断思路是什么

上图中可以看到作业的整个状态转换。从作业创建、到运行、失败,重启,成功等整个生命周期。

这里需要注意的是 reconciling 的状态,这个状态表示 yarn 中 AppMaster 重新启动,恢复其中的 JobManager 模块,这个作业会从 created 进入到 reconciling 的状态,等待其他 Taskmanager 汇报,恢复 JobManager 的 failover,然后从 reconciling 再到正常 running。

3.2 Task 状态变化 -ExecutionState

Flink的常见问题诊断思路是什么

上图是作业的 Task 状态转换,需要注意的是,作业状态处于 running 状态时,并不意味着作业一定在运行消费信息。在流式计算中只有等所有的 task 都在 running 时,作业才算真正运行。

通过记录作业各个阶段的状态变化,形成生命周期,我们能很清楚地展示作业是什么时候开始运行、什么时候失败,以及 taskmanager failover 等关键事件,进一步能分析出集群中有多少个作业正在运行,形成 SLA 标准。

4.工具化经验

4.1 指标

Flink的常见问题诊断思路是什么

如何去衡量一个作业是否正常?

  • 延时与吞吐
    对于 Flink 作业来说,最关键的指标就是延时和吞吐。在多少 TPS 水位的情况下,作业才会开始延时.

  • 外部系统调用
    从指标上还可以建立对外部系统调用的耗时统计,比如说维表 join,sink 写入到外部系统需要消耗多少时间,有助于我们排除外部的一些系统异常的一些因素。

  • 基线管理
    建立指标基线管理。比如说 state 访问耗时,平时没有延时的时候,state 访问耗时是多少?每个 checkpoint 的数据量大概是多少?在异常情况下,这些都有助于我们对 Flink 的作业的问题进行排查。

4.2 日志

Flink的常见问题诊断思路是什么

  • 错误日志
    JobManager 或者 TaskManager 的关键字及错误日志报警。

  • 事件日志
    JobManager 或者 TaskManager 的状态变化形成关键事件记录。

  • 历史日志收集
    当作业结束后,想要分析问题,需要从 Yarn 的 History Server 或已经采集的日志系统中找历史信息。

  • 日志分析
    有了 JobManager,TaskManager 的日志之后,可以对常见的 failover 类型进行聚类,标注出一些常见的 failover,比如说 OOM 或者一些常见的上下游访问的错误等等。

4.3 关联分析

  1. 作业指标/事件 - Taskmanager,JobManager

  2. Yarn 事件 - 资源抢占,NodeManager Decommission

  3. 机器异常 - 宕机、替换

  4. Failover 日志聚类

在做了这些指标和日志的处理之后,可以对各组件的事件进行关联,比如说当 TaskManager failover 时,有可能是因为机器的异常。也可以通过 Flink 作业解析 Yarn 的事件,关联作业与 Container 资源抢占,NodeManager 下线的事件等。

关于Flink的常见问题诊断思路是什么问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注亿速云行业资讯频道了解更多相关知识。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI