温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Hadoop云集格式化两次以后,该怎么修复

发布时间:2020-07-27 04:15:37 来源:网络 阅读:630 作者:小白菜_雪 栏目:大数据

Hadoop云集格式化两次以后,可能就需要重做系统,但是也有恢复的方法:

 

1.cd  /usr/local/hadoop-0.20.2-cdh4u5/

2.Cd  /tmp/ (默认在tmp下),只要hadoop集群装完,ls后就有hadoop-hadoop这么一个目录。

3.Cd  hadoop-hadoop/

4.Ls(这时候就会有dfs的目录,这里表示的所有dfs文件存在的位置)

5.Cd  /dfs

6.Ls(这时候就会有namename里面就是主节点存在的位置)

7.Cd  name

8.Ls(有current,是所有文件权存在的位置)

9.Cd  current/

10.Ls

11.Vi  version(然后看看自己ID

12.再克隆一个会话,ssh h202(一个从节点)

13.Cd  /tmp/

14.Cd  hadoop-hadoop/

15.Cd  dfs/  (这时候就只有data了,没有name,因为从节点没有name

16.Cd  data/

17.Cd  current/

18.Vi  version,这时候看看自己ID,是不是跟主节点的一样,要是不一样修过一样就可以,这样就可以恢复了。



向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI