CentOS7环境下Hive的完整部署与MySQL元数据配置实战
1. 环境准备从零开始的基石搭建大家好我是老张在数据平台这块摸爬滚打了十来年今天咱们来聊聊怎么在CentOS7上把Hive给稳稳当当地装起来并且把它的“大脑”——元数据从自带的那个不太给力的Derby数据库迁移到更靠谱的MySQL里。这事儿听起来有点复杂但别怕我带着你一步步走把每个坑都提前标出来保证你跟着做一遍就能成功。首先咱们得把舞台搭好。你得有一台已经装好CentOS7的机器我建议内存至少4G硬盘空间留个50G以上因为后面还要装Hadoop和MySQL。最关键的是Hadoop集群必须已经安装并成功启动。Hive本身不存数据它就是个翻译官把咱们写的SQL“翻译”成Hadoop能懂的MapReduce或者Tez任务去执行。所以没有HadoopHive就是个空壳子。你可以用jps命令看看有没有NameNode、DataNode、ResourceManager、NodeManager这些进程在跑确保Hadoop是活着的。接下来咱们得把必要的软件包准备好。你需要去Apache Hive的官网下载稳定版本的二进制包比如apache-hive-3.1.3-bin.tar.gz。我实测下来3.1.x的版本和Hadoop 3.x的兼容性比较好。同时别忘了准备MySQL的JDBC驱动包比如mysql-connector-java-5.1.40-bin.jar这个版本比较经典兼容性好。我习惯把这些包先下载到自己的Windows电脑上然后用像FinalShell、Xshell这类带图形化SFTP功能的工具直接拖拽上传到Linux服务器的用户家目录比如/home/hadoop下这样比用命令行传要直观方便得多。最后检查一下系统的基础环境。确保Java已经安装版本最好是JDK 8或者JDK 11用java -version命令确认。防火墙和SELinux有时候会捣乱为了减少初期配置的复杂度我一般会先临时关闭它们等所有服务都调通后再考虑安全策略。执行sudo systemctl stop firewalld和sudo systemctl disable firewalld来关闭防火墙编辑/etc/selinux/config文件将SELINUX设置为disabled然后重启生效。好了舞台的灯光、音响、背景板都齐了咱们的主角Hive可以准备登场了。2. Hive软件包部署与环境变量配置软件包上传后第一步就是解压。打开终端进入你放压缩包的家目录执行解压命令。这里有个细节我建议把Hive安装到/usr/local目录下这是Linux下存放本地安装软件的惯例位置。sudo tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /usr/local解压完成后进入/usr/local目录看看应该会有一个apache-hive-3.1.3-bin的文件夹。名字太长不方便操作咱们给它改个简短的名字就叫hive。cd /usr/local sudo mv apache-hive-3.1.3-bin hive紧接着是一个非常重要的步骤修改目录权限。如果你是用root用户操作的那么解压出来的文件所有者是root。但通常我们建议用一个专门的普通用户比如hadoop来运行Hive和Hadoop服务避免直接用root带来的安全风险。所以我们需要把hive目录的所有权移交给这个用户。sudo chown -R hadoop:hadoop ./hive这里的-R参数表示递归修改目录下所有文件和子目录的所属关系。hadoop:hadoop表示用户和用户组。做完这一步hadoop用户就能自由地读写这个目录了。接下来是配置环境变量这相当于告诉系统“嘿我装了个新软件叫Hive它的命令在哪它的依赖库在哪。”我们编辑当前用户比如hadoop的bash配置文件。vim ~/.bashrc在文件的末尾添加以下几行。注意这里的HADOOP_HOME路径必须和你实际Hadoop的安装路径完全一致否则Hive找不到Hadoop启动就会失败。export HIVE_HOME/usr/local/hive export PATH$PATH:$HIVE_HOME/bin export HADOOP_HOME/usr/local/hadoop # 请务必确认你的Hadoop安装路径保存退出后一定要执行source ~/.bashrc让配置立刻生效。你可以用echo $HIVE_HOME命令来验证一下如果正确输出了/usr/local/hive说明环境变量配置成功了。这一步虽然简单但却是后续所有操作的基础路径配错了后面会报各种“找不到命令”或“找不到类”的错误非常头疼。3. 核心配置定制你的hive-site.xmlHive的配置文件都在$HIVE_HOME/conf目录下。刚解压出来里面有很多.template结尾的模板文件。我们需要重点关注的是hive-site.xmlHive在启动时会读取这个文件来决定自己的行为。默认情况下这个文件不存在我们需要从模板创建并编辑它。首先进入配置目录并把默认模板复制一份作为备份这是个好习惯。cd /usr/local/hive/conf cp hive-default.xml.template hive-default.xml.bak然后创建我们自己的hive-site.xml文件。vim hive-site.xml现在我们要把最关键的内容写进去告诉Hive你的元数据存在哪里用什么方式存。我们要把存储从Derby切换到MySQL。下面是我在无数次部署中总结出来的一个稳定可用的配置模板你直接复制过去根据你的实际情况微调几个参数就行。?xml version1.0 encodingUTF-8 standaloneno? ?xml-stylesheet typetext/xsl hrefconfiguration.xsl? configuration !-- 指定元数据存储的数据库连接URL -- property namejavax.jdo.option.ConnectionURL/name valuejdbc:mysql://localhost:3306/hive_metastore?createDatabaseIfNotExisttrueamp;useSSLfalseamp;characterEncodingUTF-8/value descriptionJDBC connect string for a JDBC metastore/description /property !-- 指定MySQL的JDBC驱动类 -- property namejavax.jdo.option.ConnectionDriverName/name valuecom.mysql.cj.jdbc.Driver/value !-- 如果使用较老驱动可能是 com.mysql.jdbc.Driver -- descriptionDriver class name for a JDBC metastore/description /property !-- 连接MySQL数据库的用户名 -- property namejavax.jdo.option.ConnectionUserName/name valuehiveuser/value !-- 等下在MySQL里创建的用户 -- descriptionusername to use against metastore database/description /property !-- 连接MySQL数据库的密码 -- property namejavax.jdo.option.ConnectionPassword/name valueYourSecurePassword123!/value !-- 设置一个强密码 -- descriptionpassword to use against metastore database/description /property !-- 一个重要配置Hive数据在HDFS上的存储路径 -- property namehive.metastore.warehouse.dir/name value/user/hive/warehouse/value descriptionlocation of default database for the warehouse/description /property !-- 允许在命令行显示当前使用的数据库名 -- property namehive.cli.print.current.db/name valuetrue/value descriptionWhether to print the current database name in the CLI prompt./description /property !-- 关闭元数据存储的验证对于初次初始化比较方便 -- property namehive.metastore.schema.verification/name valuefalse/value descriptionEnforce metastore schema version consistency. True: Verify that version information stored in metastore matches with one from Hive jars. False: Disable this check./description /property /configuration我来解释几个容易踩坑的点。第一是ConnectionURL里的参数useSSLfalse是为了避免MySQL的SSL连接问题在测试环境可以这么设生产环境建议启用SSL并配置证书。characterEncodingUTF-8是为了防止中文乱码。第二是驱动类名如果你用的是MySQL 5.x和老版驱动包驱动类可能是com.mysql.jdbc.Driver如果是MySQL 8.x和新版驱动必须是com.mysql.cj.jdbc.Driver写错了会报“ClassNotFoundException”。第三hive.metastore.warehouse.dir指定的HDFS路径必须确保Hadoop集群中的hadoop用户或你运行Hive的用户有读写权限否则创建表会失败。配置完成后保存退出Hive的核心设置就搞定了。4. MySQL的安装、配置与字符集优化现在我们来搭建Hive的“记忆中枢”——MySQL数据库。在CentOS7上安装MySQL我推荐直接用官方Yum仓库比较省心。# 下载并安装MySQL官方的Yum仓库配置包 sudo yum install -y https://dev.mysql.com/get/mysql80-community-release-el7-11.noarch.rpm # 安装MySQL服务器和客户端 sudo yum install -y mysql-community-server mysql-community-client安装完成后启动MySQL服务并设置开机自启。sudo systemctl start mysqld sudo systemctl enable mysqldMySQL 5.7及以上版本在首次启动时会为root用户生成一个临时密码这个密码记录在日志文件里。我们需要把它找出来。sudo grep temporary password /var/log/mysqld.log你会看到一行输出末尾就是一串临时密码。用这个密码登录MySQL。mysql -u root -p输入临时密码进入MySQL命令行后第一件事就是修改root密码。MySQL有密码强度策略需要包含大小写字母、数字和特殊字符。ALTER USER rootlocalhost IDENTIFIED BY MyNewStrongPass123!;接下来是至关重要的一步解决字符集问题。如果MySQL的默认字符集是latin1那么Hive元数据里如果存储了中文字段名或注释就会变成一堆乱码后期排查问题非常痛苦。我们先查看一下当前的字符集设置。show variables like character_set_%; show variables like collation_%;如果character_set_server不是utf8mb4推荐或utf8我们就需要修改MySQL的配置文件。退出MySQL命令行输入exit;然后编辑MySQL的配置文件/etc/my.cnf。sudo vim /etc/my.cnf在[mysqld]这个段落下面添加以下几行配置。如果文件是空的或者没有[mysqld]就自己写上。[mysqld] character-set-serverutf8mb4 collation-serverutf8mb4_unicode_ci default-storage-engineINNODB lower_case_table_names1我来解释一下这几个参数。utf8mb4是utf8的超集完全兼容且能支持更多的字符如emoji是现在的首选。lower_case_table_names1是将表名在存储和比较时都转为小写避免因为系统大小写敏感问题导致Hive连接MySQL时找不到表。配置完成后保存退出然后重启MySQL服务使配置生效。sudo systemctl restart mysqld重启后再次登录MySQL执行show variables like character_set_server;确认已经变成了utf8mb4。至此一个为Hive准备好的、字符集正确的MySQL数据库服务就配置好了。5. 部署JDBC驱动与初始化Hive元数据库Hive要连接MySQL必须要有MySQL的JDBC驱动jar包。我们把之前准备好的mysql-connector-java-5.1.40-bin.jar或其他版本上传到服务器。假设你把它放在了家目录接下来把它拷贝到Hive的lib目录下。cp ~/mysql-connector-java-5.1.40-bin.jar /usr/local/hive/lib/这里有个大坑Hive 3.x的lib目录下自带的javax.jdo和javax.transaction等JAR包版本可能与新版MySQL驱动尤其是8.x驱动冲突。如果你用的是MySQL 8.0和对应的mysql-connector-java-8.0.xx.jar很可能会在启动Hive时遇到java.lang.ClassNotFoundException: javax.transaction.TransactionManager之类的错误。解决办法是去Maven仓库下载一个javax.transaction-api-1.3.jar也放到/usr/local/hive/lib/目录下。我吃过这个亏折腾了半天才发现是包冲突。驱动放好后回到MySQL命令行我们来创建Hive专用的数据库和用户。首先创建一个数据库用来存放Hive的元数据。CREATE DATABASE hive_metastore CHARACTER SET utf8mb4 COLLATE utf8mb4_unicode_ci;注意这里数据库的名字hive_metastore要和前面hive-site.xml里ConnectionURL中jdbc:mysql://localhost:3306/hive_metastore的名字对应上。然后创建一个专门给Hive用的用户并授予它对这个数据库的全部权限。从安全角度不建议直接用root用户。CREATE USER hiveuserlocalhost IDENTIFIED BY YourSecurePassword123!; GRANT ALL PRIVILEGES ON hive_metastore.* TO hiveuserlocalhost; FLUSH PRIVILEGES;这里的用户名hiveuser和密码YourSecurePassword123!也必须和hive-site.xml里配置的ConnectionUserName和ConnectionPassword完全一致。权限刷新后Hive服务就能用这个账号去连接和操作hive_metastore数据库了。6. 初始化与启动见证成果的时刻所有配置都完成后在首次启动Hive之前还有最后一道关键工序初始化元数据库。这个步骤会在我们刚才创建的hive_metastore数据库里创建Hive运行所需要的几十张系统表用来存储数据库、表、字段、分区等所有元数据信息。确保你的Hadoop集群是正常运行的用jps命令检查。然后使用Hive自带的schematool进行初始化。这里指定连接类型为MySQL。cd /usr/local/hive ./bin/schematool -dbType mysql -initSchema如果一切顺利你会看到一连串的OK和Create日志最后提示“Initialization script completed”和“schemaTool completed”。这个过程如果出错最常见的原因有三个一是MySQL连接信息URL、用户名、密码写错了二是MySQL驱动包没放对位置或者版本冲突三是MySQL的字符集没设成UTF-8导致建表语句执行失败。仔细对照前面的步骤检查。初始化成功之后激动人心的时刻到了启动Hive命令行界面CLI。./bin/hive如果终端提示符成功变成了hive并且前面显示了当前数据库比如default那么恭喜你Hive已经成功启动并连接到了MySQL元数据库你可以试着运行几个命令验证一下show databases; create table test(id int, name string); show tables;如果show databases能正常返回至少有一个default库create table和show tables也能成功执行那么整个“Hive on MySQL”的部署就大功告成了。你创建的表信息现在已经不是存在本地的Derby里而是稳稳地记录在了MySQL的hive_metastore数据库中。这意味着你可以从任何部署了Hive客户端、且能连接到这个MySQL的节点上访问到统一的元数据这才是生产环境该有的样子。7. 避坑指南与进阶配置一次启动成功当然最好但现实往往是骨感的。这里我总结几个我踩过的、以及学员们常踩的“坑”帮你快速排雷。第一个坑HDFS权限问题。当你执行create table时可能会报错Permission denied: useranonymous, accessWRITE, inode/user/hive/warehouse。这是因为Hive默认用匿名用户去写HDFS而/user/hive/warehouse目录没有相应权限。解决方法是在Hadoop的core-site.xml里添加或修改属性关闭HDFS的权限检查仅用于测试学习或者更规范地在HDFS上手动创建目录并授权给运行Hive的用户。# 在Hadoop的NameNode节点上执行 hadoop fs -mkdir -p /user/hive/warehouse hadoop fs -chmod -R 777 /user/hive/warehouse # 或者更精确地授权给特定用户 hadoop fs -chown -R hadoop:hadoop /user/hive/warehouse第二个坑Java版本或Hadoop版本不兼容。Hive 3.x通常需要Java 8或11。用java -version确认。Hive版本和Hadoop版本也有严格的对应关系官网有兼容性矩阵表安装前一定要核对。不匹配的版本组合可能会导致各种诡异的NoSuchMethodError或ClassNotFoundException。第三个坑内存不足。在虚拟机里玩经常分配内存太小。Hive CLI启动、执行查询都需要内存。如果报Java heap space或GC overhead错误可以调整Hive的启动内存。编辑/usr/local/hive/conf/hive-env.sh如果不存在复制hive-env.sh.template设置HADOOP_HEAPSIZE比如export HADOOP_HEAPSIZE2048表示2GB。进阶配置使用远程元数据服务Metastore Server。我们刚才的模式是“嵌入式”每个Hive CLI都直连MySQL。在生产环境更推荐部署独立的Hive Metastore Server。其他服务如HiveServer2、Spark、Presto都通过网络连接这个元数据服务这样更利于管理、解耦和扩展。配置方法是在hive-site.xml中增加hive.metastore.uris属性指向Metastore Server的地址然后使用hive --service metastore 命令启动服务。这又是另一个话题了但如果你打算在生产环境使用一定要了解这个架构。最后记得定期备份你的MySQL元数据库。元数据一旦损坏或丢失Hive里创建的所有表定义就都找不回来了。可以用mysqldump工具定期备份hive_metastore数据库。养成这个习惯能在关键时刻救你一命。好了从上传软件包到成功启动Hive CLI并把元数据稳稳地存进MySQL这条完整的路径我已经带你走了一遍。过程中每个命令、每个配置项背后的原因我都尽量解释清楚了。技术活儿就是这样第一次配置觉得步骤繁多多配几次理解了每个环节的作用就会越来越顺手。遇到问题别慌按照日志提示结合咱们上面说的这些常见坑点一步步排查肯定能解决。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2408390.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!