温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

flink1.12怎么通过kerberos认证读取kafka数据

发布时间:2021-06-28 14:48:34 来源:亿速云 阅读:1332 作者:chen 栏目:大数据

这篇文章主要讲解了“flink1.12怎么通过kerberos认证读取kafka数据”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“flink1.12怎么通过kerberos认证读取kafka数据”吧!

说明

一般我们在使用kafka的时候很少经过kerberos认证,通过flink消费kafka数据的时候相对比较容易,一般很容易测通。

但是如果kafka有kerberos的认证,相对比较麻烦,结合官网进行说明。

官方文档

https://ci.apache.org/projects/flink/flink-docs-release-1.13/docs/connectors/datastream/kafka/

flink1.12怎么通过kerberos认证读取kafka数据

主要就是说明需要配置flink-conf.yml以及kafka的配置。

自己配置

flink1.12怎么通过kerberos认证读取kafka数据

这里面涉及三个文件user.keytab、jaas.conf和krb5.conf文件。把这个配置文件配置好后在设置kafka的属性就可以了。

kafka的属性如下:

      props.put("security.protocol", "SASL_PLAINTEXT");
      props.put("sasl.mechanism", "GSSAPI");
      props.put("sasl.kerberos.service.name", "kafka");

以上配置好,flink就可以提交任务进行kafka的消费了。

感谢各位的阅读,以上就是“flink1.12怎么通过kerberos认证读取kafka数据”的内容了,经过本文的学习后,相信大家对flink1.12怎么通过kerberos认证读取kafka数据这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI