完全分布式HBase环境搭建【主要流程记录】
本文记录了完全分布式Hbase数据库安装过程中的主要流程以及遇到的问题。
若要查看详细操作步骤可以参考文末的资料。
#1 安装HDFS
架构
3台虚拟机,名字分别为master,hadoop-2,hadoop-3。其中master为NameNode,其余机器为DataNode。
系统环境
Ubuntu 18.04操作系统
Hadoop版本
2.7.7
流程
(1/6) 先创建一台主机,完成基础配置,避免重复的工作
- 使用Vmware软件,虚拟出1台主机,命名为master,作为Master节点,并安装Ubuntu18.04操作系统。
- 在这台机器中,配置 hadoop 用户、安装 SSH server、安装 Java 环境、设置环境变量、安装必要的软件(vim,curl,wget等)。
(2/6) 克隆主机,修改网卡,修改hosts文件
- 克隆两个副本,分别命名为hadoop-2和hadoop-3。
- 开机前先修改副本的网卡地址(Mac地址),开机后确保ip互不相同。
- 修改主机名,修改hosts文件使主机名与ip地址对应。【127.0.0.1 localhost】一项需保留,文件IPv4部分的其他已有条目可删除。

(3/6) 配置ssh,使master可无密码登录至所有节点
- 在master中生成密钥,将生成的id_rsa.pub文件追加到authorized_keys文件中;
- 将master中生成的id_rsa.pub文件拷贝到hadoop2和hadoop3节点中,分别追加至authorized_keys文件中;
- 使用ssh测试能否从master节点无密码登录master、hadoop2、hadoop3节点。
(4/6) 在master中安装Hadoop,修改配置文件
- 解压hadoop文件至/usr/local文件夹,使用 chown -R 命令修改文件所属;
- 修改/usr/local/hadoop/etc/hadoop 中的5个配置文件:slaves、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml
- 具体内容如下:
- slaves
1 | hadoop-2 |
- core-site.xml
1 | <configuration> |
- hdfs-site,xml
1 | <configuration> |
- mapred-site.xml
1 | <configuration> |
- yarn-site.xml
1 | <configuration> |
(5/6) 将master中的hadoop复制到其他节点中
- 打包hadoop文件夹中所有文件,拷贝到hadoop-2、hadoop-3中;
- 在hadoop-2、hadoop-3中分别解压,到/usr/local目录下,修改所属用户。
(6/6) 运行hadoop,验证是否安装成功
- 格式化,在master运行:hdfs namenode -format
- 启动hadoop:
1 | start-dfs.sh |
- 通过web查看运行状态:http://master:50070;
- 关闭hadoop:
1 | stop-yarn.sh |
至此,HDFS就安装成功了,可以在其上面运行MapReduce任务等操作。
#2 安装HBase
HBase 版本
1.3.2
架构
| Node Name | Master | ZooKeeper | RegionServer |
|---|---|---|---|
| master | yes | yes | no |
| hadoop-2 | backup | yes | yes |
| hadoop-3 | no | yes | no |
流程
(1/4) 在master中安装HBase,修改配置文件
- 解压HBase文件至/usr/local文件夹,使用 chown -R 命令修改文件所属;
- 修改/usr/local/hbase/conf下的配置文件:regionservers,backup-masters,hbase-site.xml
- 具体内容如下:
- regionservers
1 | hadoop-2 |
- backup-masters (若没有,需要手动创建)
1 | hadoop-2 |
- hbase-site.xml
1 | <configuration> |
(2/4) 在hadoop-2中,进行中安装Hadoop的第3步,使得hadoop-2可以无密码登录所有节点
进行这一步的原因是hadoop-2作为master的备份,也需要访问的其他节点权限。具体步骤参考安装Hadoop的第3步。
(3/4) 将hbase文件夹复制到其他节点中
- 打包hbase文件夹中所有文件,拷贝到hadoop-2、hadoop-3中;
- 在hadoop-2、hadoop-3中分别解压,到/usr/local目录下,修改所属用户。
(4/4) 运行hbase,验证是否安装成功
- 启动hbase:start-hbase.sh;
- 使用jps查看进程,按照以上步骤安装后,正常情况下的输出结果为 (id可以不同):
1 | master |
- 进入hbase命令行:hbase shell;
- 完成基本的创建表,查询,删除等操作。若能正常运行,则说明安装成功;
- 通过web查看HBase运行状态:http://master:16010
- 停止hbase:stop-hbase.sh
这样,HBase 就安装成功了。
关机时,要先关闭HBase ,再关闭yarn和hdfs。不正确的关闭顺序可能导致下次HBase 无法正常启动
#3 遇到的问题
#####1. 启动Hadoop或HBase 时,提示JAVA_HOME没有设置,但实际上已经在/etc/profile中设置了。
解决:分别在hadoop的 hadoop-env.sh文件和hbase的hbase-env.sh 文件中,再次设置JAVA_HOME即可。
2. 重新格式化HDFS后,再次启动hadoop失败
解决:在格式化之前,需要删除每个节点hadoop文件夹下的tmp文件夹和logs文件夹,以删除之前的数据和日志。
3. HBase 启动失败
解决:导致HBase 启动失败的原因有很多,我遇到的主要有以下几个:
- 在配置文件中指定的zookeeper存放目录,没有访问权限。需要将其所有者设置为当前用户
- hosts文件配置错误,或者有不必要的项目
- 检查主节点master和备份主节点hadoop-2能否无密码登录所有节点,包括自身
如果尝试过很多方案都没有效果,那么最好的办法是重装一遍,避免浪费更多的时间。
4. 安装curl失败,原因是curl的某个依赖包在本地已存在一个更高的版本。
解决:尝试使用aptitude完成降级安装,但遇到新的错误。最终我是将那个已安装的依赖包删除,才装上了curl。
警告:装好后过了一段时间,这台主机莫名其妙的断网并且无法进入图形界面,不知道是不是和我删除了那个依赖包有关。因此不推荐删除依赖包的方法。
参考资料(有详细步骤)
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 於桃君的小仓库!
评论







