CentOS HBase与Hadoop集成方法是什么
导读:CentOS 上 HBase 与 Hadoop 的集成方法 一 环境准备与版本兼容 安装并验证 Java 8(HBase 2.x 通常要求 Java 8):执行 java -version;未安装可用 sudo yum install j...
CentOS 上 HBase 与 Hadoop 的集成方法
一 环境准备与版本兼容
- 安装并验证 Java 8(HBase 2.x 通常要求 Java 8):执行 java -version;未安装可用 sudo yum install java-1.8.0-openjdk-devel。
- 规划 Hadoop 与 HBase 的版本兼容:例如 HBase 2.4.x/2.5.x 通常搭配 Hadoop 3.3.x;而 HBase 1.2.x/1.3.x 多搭配 Hadoop 2.6.1+ / 2.7.1+。避免使用 Hadoop 2.7.0、2.8.0、2.8.1 等不稳定版本。
- 配置 主机名与 /etc/hosts,确保各节点可互相解析;建议配置 SSH 免密登录 以便集群启停。
- 统一目录与用户,准备数据目录(如 HDFS 的 NameNode/DataNode 目录、HBase 的 ZooKeeper 数据目录)并设置权限。
二 安装与配置 Hadoop
- 下载并解压 Hadoop(示例:/usr/local/hadoop),配置环境变量(示例:HADOOP_HOME、PATH)。
- 关键配置(示例值可按需调整):
- core-site.xml:设置 fs.defaultFS=hdfs://:9000
- hdfs-site.xml:设置 dfs.replication(伪分布可用 1)
- mapred-site.xml:设置 mapreduce.framework.name=yarn
- yarn-site.xml:设置 yarn.nodemanager.aux-services=mapreduce_shuffle 及对应类
- 格式化 NameNode:hdfs namenode -format
- 启动 HDFS 与 YARN:start-dfs.sh、start-yarn.sh
三 安装与配置 HBase
- 下载并解压 HBase(示例:/usr/local/hbase),配置环境变量(示例:HBASE_HOME、PATH)。
- 关键配置:
- hbase-env.sh:设置 JAVA_HOME;如外部已部署 ZooKeeper,设置 HBASE_MANAGES_ZK=false;可自定义 HBASE_PID_DIR/HBASE_LOG_DIR
- hbase-site.xml(分布式示例):
- hbase.rootdir=hdfs://:9000/hbase(须与 Hadoop 的 fs.defaultFS 一致,并指向 HDFS 上的 /hbase)
- hbase.cluster.distributed=true
- hbase.master.port=16000
- hbase.zookeeper.quorum=(多节点用逗号分隔)
- hbase.zookeeper.property.dataDir=
- regionservers:列出所有 RegionServer 主机名(一行一个)
四 启动与验证
- 启动顺序:先 Hadoop(HDFS/YARN),再 HBase(start-hbase.sh)。
- 进程检查:执行 jps,应能看到 Hadoop 的 NameNode/DataNode/ResourceManager/NodeManager 等进程,以及 HBase 的 HMaster/RegionServer(若使用内置 ZK,还会看到 QuorumPeerMain)。
- Web 与命令行验证:
- HBase Master UI:访问 http://:16010 查看集群状态与表信息
- HBase Shell:执行 hbase shell,创建表、写入与查询数据,确认读写正常
五 常见问题与排查要点
- 版本不兼容导致启动失败或运行异常:部署前务必核对 HBase 与 Hadoop 的兼容矩阵,避免使用 Hadoop 2.7.0/2.8.0/2.8.1 等版本。
- 地址与解析问题:确保 hbase.rootdir 的 fs.defaultFS 主机名与集群节点在 /etc/hosts 或 DNS 中可解析;RegionServer 主机名需在 regionservers 中正确列出。
- 权限与目录:HDFS 与本地目录需提前创建并赋权;首次部署可简化权限策略后再收紧。
- 启动顺序与依赖:必须先启动 HDFS 再启动 HBase;如使用 HDFS 加密区(Encryption Zone),Hadoop 2.6.x 需包含 HADOOP-11710 补丁,否则可能引发集群故障与数据风险。
- 日志定位:HBase 日志位于 HBASE_LOG_DIR,Hadoop 日志位于 $HADOOP_HOME/logs,异常时优先查看对应日志。
声明:本文内容由网友自发贡献,本站不承担相应法律责任。对本内容有异议或投诉,请联系2913721942#qq.com核实处理,我们将尽快回复您,谢谢合作!
若转载请注明出处: CentOS HBase与Hadoop集成方法是什么
本文地址: https://pptw.com/jishu/779222.html
