Linux ·

Hadoop动态删除节点

删除s4(datanode)节点
1.环境如下:
[Hadoop@master root]$ cat /etc/hosts
192.168.100.10 master
192.168.100.11 s1
192.168.100.12 s2
192.168.100.14 s4

Hadoop动态删除节点 Linux 第1张

*实验环境中有一个master和三个slaver节点

2.修改master上的hdfs-site.xml文件,添加以下内容
 <property>
  <name>dfs.hosts.exclude</name>
  <value>/usr/local/hadoop/etc/hadoop/exclude</value>
 </property>

3.新建exclude文件将s4添加进去
[hadoop@master hadoop]$ cat exclude 
s4

4.动态刷新配置

[hadoop@master hadoop]$ hdfs dfsadmin -refreshNodes
Refresh nodes successful

Hadoop动态删除节点 Linux 第2张

5.结果

Hadoop动态删除节点 Linux 第3张

Hadoop项目之基于CentOS7的Cloudera 5.10.1(CDH)的安装部署  http://www.linuxidc.com/Linux/2017-04/143095.htm

Hadoop2.7.2集群搭建详解(高可用)  http://www.linuxidc.com/Linux/2017-03/142052.htm

使用Ambari来部署Hadoop集群(搭建内网HDP源)  http://www.linuxidc.com/Linux/2017-03/142136.htm

Ubuntu 14.04下Hadoop集群安装  http://www.linuxidc.com/Linux/2017-02/140783.htm

CentOS 6.7安装Hadoop 2.7.2  http://www.linuxidc.com/Linux/2017-08/146232.htm

Ubuntu 16.04上构建分布式Hadoop-2.7.3集群  http://www.linuxidc.com/Linux/2017-07/145503.htm

CentOS 7.3下Hadoop2.8分布式集群安装与测试  http://www.linuxidc.com/Linux/2017-09/146864.htm

CentOS 7 下 Hadoop 2.6.4 分布式集群环境搭建  http://www.linuxidc.com/Linux/2017-06/144932.htm

Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程  http://www.linuxidc.com/Linux/2017-06/144926.htm

参与评论