温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Hadoop重启后如何解决HDFS权限问题

发布时间:2021-12-09 10:58:57 来源:亿速云 阅读:128 作者:小新 栏目:云计算

这篇文章给大家分享的是有关Hadoop重启后如何解决HDFS权限问题的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

重启了下Hadoop集群,使用Eclipse调试hdfs api的时候报错:

[WARNING] 
java.lang.NullPointerException
	at org.conan.kafka.HdfsUtil.batchWrite(HdfsUtil.java:50)
	at org.conan.kafka.SingleTopicConsumer.run(SingleTopicConsumer.java:144)
	at java.lang.Thread.run(Thread.java:745)
	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
	at java.lang.Thread.run(Thread.java:745)

查找HdfsUtil.java 第50行

os.write(buff, 0, buff.length);

发现是写的时候报错,然后折腾了一会儿,也没找到原因,后来想会不会是权限问题(电脑不是管理员身份,hadoop集群是以root身份运行),但是之前已经把hdfs文件夹的权限改为了777。不管了,在试试,hdfs dfs -chmod -R 777 /input,然后再次调试,OK了。

那么问题来了,Hadoop集群难道在每次重启后(没有进行namenode format)都要修改文件(夹)的权限?

依据实践来看,应该是的。

感谢各位的阅读!关于“Hadoop重启后如何解决HDFS权限问题”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI