Hbase2.2.7集群部署

发布于:2024-11-29 ⋅ 阅读:(37) ⋅ 点赞:(0)

环境说明

  • 准备三台服务器,分别为:bigdata141(作为Hbase主节点)、bigdata142、bigdata143
  • 确保hadoop和zookeeper集群都先启动好
  • 我这边的hadoop版本为3.2.0,zookeeper版本为3.5.8 

下载安装包

下载链接:Index of /dist/hbase/2.2.7

下载完后,上传到其中一台服务器,我这边上传到 bigdata141 的 /data/soft/ 目录下

解压并配置

解压

[root@bigdata141 soft]# tar -zxvf hbase-2.2.7-bin.tar.gz 
[root@bigdata141 soft]# ll
drwxr-xr-x. 6 root  root        170 Nov 27 20:06 hbase-2.2.7
-rw-r--r--. 1 root  root  220793877 Nov 27 14:31 hbase-2.2.7-bin.tar.gz
[root@bigdata141 soft]# cd hbase-2.2.7/conf

 配置

1、首先修改 hbase-env.sh,先复制备份,再修改

[root@bigdata141 conf]# cp hbase-env.sh hbase-env.sh.bak
[root@bigdata141 conf]# vi hbase-env.sh

在文件末尾添加以下配置即可:注意 jdk 和 hadoop 的安装目录要换成自己的

export JAVA_HOME=/data/soft/jdk1.8
export HADOOP_HOME=/data/soft/hadoop-3.2.0
export HBASE_MANAGES_ZK=false
export HBASE_LOG_DIR=/data/hbase/logs

2、接着修改 hbase-site.xml,先复制备份,再修改:

[root@bigdata141 conf]# cp hbase-site.xml hbase-site.xml.bak
[root@bigdata141 conf]# vi hbase-site.xml

 以下属性在文件中都能找到,修改属性值即可:

<!--是否为分布式模式部署,true表示分布式部署-->
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<!-- 本地文件系统tmp目录-->
<property>
    <name>hbase.tmp.dir</name>
    <value>/data/hbase/tmp</value>
</property>
<!-- 这个参数的值默认不变即可,默认就是false。在分布式情况下, 一定设置为false -->
<property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>false</value>
</property>

然后再额外添加以下属性即可:注意有些属性值要换成自己的

<!--设置HBase表数据,也就是HBase数据在hdfs上的存储根目录-->
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://bigdata141:9000/hbase</value>
</property>
<!--zookeeper集群的URL配置,多个host中间用逗号隔开-->
<property>
    <name>hbase.zookeeper.quorum</name>
    <value>bigdata141,bigdata142,bigdata143</value>
</property>
<!--HBase在zookeeper上数据的根目录znode节点-->
<property>
    <name>zookeeper.znode.parent</name>
    <value>/hbase</value>
</property>
<!--设置zookeeper通信端口,不配置也可以,zookeeper默认就是2181-->
<property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2181</value>
</property>

3、最后修改 reginservers 文件:

[root@bigdata141 conf]# vi regionservers 

 在该文件中添加Hbase从节点的主机名或IP,我这边添加主机名

bigdata142
bigdata143

4、将配置好的安装包复制到其他节点:

[root@bigdata141 soft]# scp -rq hbase-2.2.7/ bigdata142:/data/soft/
[root@bigdata141 soft]# scp -rq hbase-2.2.7/ bigdata143:/data/soft/

启动Hbase

启动Hbase前,先确认hadoop和zookeeper集群已经启动好,然后再启动Hbase:

[root@bigdata141 hbase-2.2.7]# bin/start-hbase.sh 

查看各个节点hbase是否启动:主节点有HMaster进程,从节点有HRegionServer进程,部署完成

[root@bigdata141 hbase-2.2.7]# jps -l
1987 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
4195 org.apache.zookeeper.server.quorum.QuorumPeerMain
6198 org.apache.hadoop.hbase.master.HMaster
1706 org.apache.hadoop.hdfs.server.namenode.NameNode
2253 org.apache.hadoop.yarn.server.resourcemanager.ResourceManager
6415 sun.tools.jps.Jps
[root@bigdata142 soft]# jps -l
4800 sun.tools.jps.Jps
4565 org.apache.hadoop.hbase.regionserver.HRegionServer
1544 org.apache.hadoop.hdfs.server.datanode.DataNode
1662 org.apache.hadoop.yarn.server.nodemanager.NodeManager
3071 org.apache.zookeeper.server.quorum.QuorumPeerMain
[root@bigdata143 soft]# jps -l
1537 org.apache.hadoop.hdfs.server.datanode.DataNode
4786 sun.tools.jps.Jps
1655 org.apache.hadoop.yarn.server.nodemanager.NodeManager
3067 org.apache.zookeeper.server.quorum.QuorumPeerMain
4527 org.apache.hadoop.hbase.regionserver.HRegionServer

通过 16010 端口访问web页面

停止Hbase

注意,停止顺序:Hbase--->Zookeeper--->Hadoop,

最好不要先停止zookeeper或者hadoop,

否则会有问题

[root@bigdata141 hbase-2.2.7]# bin/stop-hbase.sh 
stopping hbase.................
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/data/soft/hadoop-3.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/data/soft/hbase-2.2.7/lib/client-facing-thirdparty/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]