在本文中,我们将在 Hadoop 的多节点集群中设置 HBase。
先决条件:
ubuntu 中的 Hadoop 多节点集群设置,具有1 个主节点和 2 个从节点。
在所有机器中执行以下步骤
第 1 步:下载 HBase
从以下链接下载 HBase 的二进制版本:
http://www.apache.org/dyn/closer.cgi/hbase/
或者直接使用以下命令:
sudo wget -P ~ https://dlcdn.apache.org/hbase/stable/hbase-2.4.14-bin.tar.gz
第2步:
进入已下载上述文件的文件夹。
在该文件夹中打开终端,然后运行以下命令解压缩文件:
tar xzf hbase-2.4.14-bin.tar.gz
第 3 步:
现在,我们将/usr/local/hbase
使用以下命令移动上述文件夹:
sudo mv hbase-2.4.14 /usr/local/hbase
第4步:
在根目录中打开一个新终端并运行以下命令打开.bashrc
文件,并将以下行添加到该文件中。
#HBASE CONFIGS export HBASE_HOME="/usr/local/hbase" export PATH="$HBASE_HOME/bin:$PATH"
保存并退出
运行以下命令以保存对环境的更改:
source ~/.bashrc
第 5 步:
现在,我们将对hbase-env.sh
文件进行更改。运行以下命令:
sudo nano /usr/local/hbase/conf/hbase-env.sh
在文件末尾添加以下行,如图所示:
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/ export HBASE_PID_DIR=/var/hbase/pids export HBASE_MANAGES_ZK=true export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
保存并退出
第 6 步:
运行以下命令以验证 HBase 安装:
hbase version
第 7 步:仅在主节点中执行此步骤
运行以下命令:
sudo nano /usr/local/hbase/conf/hbase-site.xml
添加以下行:
<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://hadoop-master:9000/hbase</value> </property><property> <name>hbase.cluster.distributed</name> <value>true</value> </property><property> <name>hbase.zookeeper.property.dataDir</name> <value>hdfs://hadoop-master:9000/zookeeper</value> </property><property> <name>hbase.zookeeper.quorum</name> <value>hadoop-master、hadoop-slave1、hadoop-slave2</value> </property><property> <name>hbase.zookeeper.property.clientPort</name> <value>2181</value> </property> </configuration>
保存并退出
第 8 步:仅在从节点中执行此步骤
运行以下命令:
sudo nano /usr/local/hbase/conf/hbase-site.xml
更新以下行:
<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://hadoop-master:9000/hbase</value> </property> <property> <name>hbase.cluster.distributed< /name> <value>true</value> </property> </configuration>
保存并退出
第 9 步:仅在主节点中执行此步骤
运行以下命令
sudo nano /usr/local/hbase/conf/regionservers
添加以下行:
hadoop-master hadoop-slave1 hadoop-slave2
保存并退出。
第 10 步:
重命名从机为hadoop-slave1
并hadoop-slave2
使用以下命令:
sudo nano /etc/hostname
将名称分别更新为hadoop-slave1
和hadoop-slave2
。重新启动机器。
hadoop-master
以类似的方式重命名主机。
第 11 步:
使用以下命令更新ip address
文件中所有机器中的机器:/etc/hostname
sudo nano /etc/hostname
第 12 步:
在主节点中,运行以下命令:
sudo nano /usr/local/hadoop/etc/hadoop/workers
用这个更新文件:
hadoop-master hadoop-slave1 hadoop-slave2
保存并退出。
第十三步:
在所有机器上运行以下命令以授予权限:
chmod 777 /usr/local/hbase chmod 777 /usr/local/hbase/ chmod 777 /usr/local/hbase/* chmod 777 /var chmod 777 /var/ chmod 777 /var/*
第 14 步:
在主节点中,运行以下命令启动 hadoop 集群:
start-all.sh
要启动 HBase 集群,请使用以下命令:
start-hbase.sh
使用以下命令验证步骤:
JP
在主节点中,输出将是:
主节点中的 HBase 集群输出
在从节点中,输出将如下所示:
从节点中的 HBase 集群输出
第 15 步:
现在,为了停止 HBase,在主节点上使用以下命令:
stop-hbase.sh
第 16 步:
下次,每当您想重新启动网络时,请确保按照上一篇文章中的讨论更新 IP 地址。