Hadoop 2.7.3 集群部署、配置与环境变量调优全流程总结
本次完成了基于 master/slave1/slave2 三节点的 Hadoop 分布式集群部署核心涵盖集群基础配置、环境变量调优、问题排查与验证最终实现集群全功能可用以下是完整总结一、核心部署与配置流程1. 基础环境准备前置步骤节点规划master 作为 NameNode/ResourceManagerslave1/slave2 作为 DataNode/NodeManager基础依赖全节点安装 JDKmaster 路径/usr/java/jdk-12.0.2slave1/slave2 路径/usr/local/java/jdk-12.0.2确保 SSH 互通Hadoop安装全节点统一将 Hadoop 2.7.3 安装至/home/hadoop/hadoop-2.7.3保证HADOOP_HOME路径一致。2. 核心配置文件同步在 master 节点完成core-site.xml/hdfs-site.xml/mapred-site.xml/yarn-site.xml等核心配置文件编辑通过scp命令将配置文件同步至 slave1/slave2并执行chown hadoop:hadoop修正文件归属确保 hadoop 用户有权访问。3. 数据目录创建master 节点创建tmp/namenode目录slave1/slave2 创建tmp/datanode目录路径统一为/home/hadoop/hadoop-2.7.3/xxx保证配置文件中路径与实际目录匹配。4. 集群启动在 master 节点执行hdfs namenode -format完成 NameNode 格式化仅执行一次执行start-dfs.sh启动 HDFS 集群、start-yarn.sh启动 YARN 集群解决密码输入错误、主机指纹验证等启动问题最终实现 master 节点 NameNode/ResourceManager/SecondaryNameNode 进程slave 节点 DataNode/NodeManager 进程正常运行。二、环境变量调优核心解决的问题1. 核心问题与根源初始问题slave1/slave2 执行jps/hadoop命令提示command not found远程执行命令时环境变量未加载根本原因① 各节点 JDK 路径不一致master 与 slave 路径不同② 非交互式 shellsu hadoop -c默认不加载/etc/profile系统级环境变量③ slave 节点~/.bashrc为空未配置自动加载环境变量逻辑。2. 调优方案分节点适配强制加载系统级配置/etc/profilemaster 节点配置JAVA_HOME/usr/java/jdk-12.0.2slave1/slave2 配置JAVA_HOME/usr/local/java/jdk-12.0.2全节点统一配置HADOOP_HOME/home/hadoop/hadoop-2.7.3及相关路径将 JDK/Hadoop 二进制目录加入PATH。用户级配置/home/hadoop/.bashrc新增source /etc/profile强制加载系统环境变量补充 JDK/Hadoop 环境变量与节点实际路径匹配确保交互式/非交互式 shell 均能识别命令修正文件归属为hadoop:hadoop保证权限合规。执行方式优化远程执行命令时使用su - hadoop -c登录式 shell触发环境变量完整加载。3. 调优成果全节点jps/hadoop/hdfs/yarn等命令可直接执行无需绝对路径本地/远程执行命令均无command not found报错hadoop version可正常输出版本信息master/slave1/slave2 进程查看、集群启停操作统一且便捷。三、关键验证与最终状态1. 进程验证master 节点jps显示NameNode、DataNode、ResourceManager、NodeManager、SecondaryNameNodeslave1/slave2 节点jps显示DataNode、NodeManager所有核心进程无缺失集群运行稳定。2. 功能验证全节点hadoop version输出 2.7.3 版本信息配置文件语法检查hadoop configcheck无错误远程执行su - hadoop -c jps/su - hadoop -c hadoop version均正常环境变量加载无异常。3. 最终集群状态基础部署三节点分布式集群架构搭建完成配置文件同步且权限合规环境调优全节点环境变量适配完成命令执行无阻碍功能可用HDFS 分布式存储、YARN 资源管理功能就绪可开展文件操作、MapReduce 任务提交等实验。四、核心总结要点路径一致性Hadoop 路径HADOOP_HOME全节点必须统一JDK 路径JAVA_HOME只需匹配节点自身实际路径即可环境变量加载非交互式 shell 需通过su -登录式执行或在.bashrc中强制加载/etc/profile权限合规所有 Hadoop 相关文件/目录归属必须为hadoop:hadoop避免权限不足导致进程启动失败启动核心NameNode 格式化仅执行一次集群启动优先解决 SSH 密码/指纹验证问题进程重复启动提示Stop it first为正常现象。本次集群部署从基础配置到环境调优解决了路径不一致、环境变量加载、远程命令执行等核心问题最终实现三节点 Hadoop 集群全功能可用符合分布式集群部署的最佳实践。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2412488.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!