实战避坑指南:基于RocketMQ 5.2 Proxy的两主两从集群部署与关键配置解析
1. 为什么你需要这份“踩坑”指南最近有不少朋友在后台问我想在生产环境部署RocketMQ 5.2的集群特别是带Proxy的两主两从架构但照着网上一些零散的教程做总是卡在某个环节要么服务起不来要么配置对不上折腾得够呛。我自己在最近的一个项目中也正好用CentOS 7搭了一套RocketMQ 5.2的2m-2s-async两主两从异步复制集群并且集成了Proxy组件。整个过程下来确实遇到了不少官方文档没细说、网上资料也语焉不详的“坑点”。所以我决定把这次实战部署的完整过程、关键配置的深层含义以及那些让我调试到半夜的“坑”和解决方案系统地整理出来。这份指南的目标非常明确让你能拿着一份清单一步步操作避开所有我踩过的雷最终搭建出一个稳定、可用于生产环境的RocketMQ 5.2集群。无论你是运维工程师、中间件开发者还是需要对消息队列进行选型和落地的架构师这份基于实战的避坑指南都会让你事半功倍。简单来说我们要搭建的架构是这样的两台物理服务器每台服务器上同时运行一个NameServer、一个Broker Master和一个Broker Slave来自另一组主从同时每台服务器上再部署一个Proxy服务。这样构成了一个高可用的集群。听起来有点绕别急跟着步骤走你会彻底明白。2. 部署前的“灵魂三问”环境与规划在动手敲命令之前有几个关键决策必须想清楚这直接决定了后续部署的顺利程度。很多部署失败根源都在于前期规划没做好。2.1 服务器与网络规划首先你需要两台CentOS 7的服务器。我这里假设它们的IP分别是192.168.31.11和192.168.31.12。强烈建议使用固定IP动态IP或者经常变动的云服务器内网IP会给集群带来灾难。接下来是主机名映射。很多教程会跳过这一步或者让你直接改/etc/hosts但没告诉你为什么。在RocketMQ集群内部Broker和NameServer之间、主从Broker之间都需要通过主机名或IP来通信。使用/etc/hosts映射比直接用IP更灵活也便于后期维护。我们在两台服务器上都要执行以下操作vim /etc/hosts添加如下内容192.168.31.11 rocketmq-nameserver1 rocketmq-master1 rocketmq-slave2 192.168.31.12 rocketmq-nameserver2 rocketmq-master2 rocketmq-slave1这里有个关键点我把每台服务器的三个角色NameServer, Broker Master, Broker Slave的主机名都映射到了同一个IP。这完全没问题因为它们是不同的进程监听不同的端口。这样命名的好处是一看主机名就知道这个进程在集群中的角色非常清晰。防火墙是第一个大坑CentOS 7默认的firewalld会拦住所有端口。对于测试环境最简单粗暴的方法是直接关闭防火墙并禁止开机启动systemctl stop firewalld.service systemctl disable firewalld.service但在生产环境更推荐精确开放端口。RocketMQ涉及的主要端口有NameServer: 默认9876Broker Master: 默认10911Broker Slave: 默认11011(在2m-2s-async模式下Slave端口必须与Master不同且两台机器上的Slave端口要能互通)Proxy: 我们后面会配置例如28080(Remoting) 和28081(gRPC)如果你选择开放端口命令类似这样以NameServer端口为例firewall-cmd --zonepublic --add-port9876/tcp --permanent firewall-cmd --reload务必确保两台服务器之间的这些端口都是互通的可以用telnet命令互相测试一下。2.2 软件版本与依赖检查这次我们使用RocketMQ 5.2.0版本。5.x版本引入了Proxy模式这是与之前版本架构上的一个显著区别旨在实现存储与计算的分离让客户端连接更轻量。从官网下载二进制包即可。另一个至关重要的点是JDK版本。我这次用的是JDK 21。RocketMQ 5.x对高版本JDK的支持已经很好但这里藏着一个巨坑RocketMQ自带的启动脚本runserver.sh和runbroker.sh里默认的JVM参数包含了一个-XX:-UseBiasedLocking。这个参数在JDK 15之后就已经被废弃并默认禁用了。在JDK 21上如果你不删除这个参数启动时会收到一个警告提示该参数无效。虽然可能不会直接导致启动失败但强迫症不能忍而且也可能在某些极端情况下引发不可预知的问题。所以在部署前我们就要做好修改启动脚本的准备。这个坑我后面会详细说怎么填。3. 核心配置详解Broker配置里的“魔鬼细节”下载解压RocketMQ到/usr/local/rocketmq后重头戏就是配置Broker。配置文件位于conf/2m-2s-async/目录下里面有四个文件对应我们集群的四个Broker实例。很多配置项如果理解不透要么性能上不去要么直接报错。3.1 Master与Slave的配置差异我们以第一台服务器192.168.31.11为例它需要运行broker-a的Master和broker-b的Slave。第一个坑存储路径绝对不能相同这是硬性规定。Master和Slave是独立的进程即使在同一台机器上它们的数据存储目录也必须分开。否则启动时会报文件锁冲突之类的错误。我习惯这样创建目录# 为broker-a (Master) 创建存储目录 mkdir -p /usr/local/rocketmq/store/{commitlog,consumequeue,index} # 为broker-b (Slave) 创建存储目录加个_s后缀以示区别 mkdir -p /usr/local/rocketmq/store_s/{commitlog,consumequeue,index}现在来看broker-a.properties(Master) 的关键配置解析brokerClusterNamerocketmq-cluster # 集群名所有节点必须一致 brokerNamebroker-a # Broker组名一主一从的“组”名相同 brokerId0 # 0代表Master大于0代表Slave brokerRoleASYNC_MASTER # 角色异步复制Master flushDiskTypeASYNC_FLUSH # 刷盘方式异步刷盘性能好有极小概率丢消息 listenPort10911 # Broker服务监听端口 storePathRootDir/usr/local/rocketmq/store # 存储根目录对应上面创建的目录 namesrvAddrrocketmq-nameserver1:9876;rocketmq-nameserver2:9876 # NameServer地址列表再看同机器上的broker-b-s.properties(Slave) 配置差异点如下brokerNamebroker-b # 注意这里是broker-b表示它是broker-b组的Slave brokerId1 # Slave的ID必须大于0通常用1 brokerRoleSLAVE # 角色Slave listenPort11011 # Slave端口必须与Master不同且不能冲突 storePathRootDir/usr/local/rocketmq/store_s # 指向另一个存储目录这里最容易出错的地方brokerName的配置。在192.168.31.11上broker-a.properties的brokerNamebroker-a而broker-b-s.properties的brokerNamebroker-b。这意味着这台机器承载了broker-a组的Master和broker-b组的Slave。同理在192.168.31.12上配置正好相反是broker-b组的Master和broker-a组的Slave。这样交叉部署任何一组主从都不在同一台机器上实现了机器级别的容灾。3.2 那些影响性能和稳定性的隐藏参数配置文件里有很多被注释掉的参数它们有默认值但在生产环境中可能需要调整。mapedFileSizeCommitLog1073741824CommitLog文件大小默认1GB。如果你的消息体非常大或者非常小可以适当调整。太大可能导致文件恢复时间过长太小则会产生过多文件影响IO效率。fileReservedTime120文件保留时间默认48小时120小时是5天这里原作者可能修改了。根据你的磁盘空间和消息追溯需求来调整。注意单位是小时。diskMaxUsedSpaceRatio88磁盘最大使用率阈值达到后Broker会拒绝写入。这个参数极其重要一定要根据服务器实际磁盘情况设置防止磁盘写满导致系统崩溃。我一般会设得比监控告警阈值低一点比如85%。maxMessageSize65536单条消息最大限制默认64KB。如果你的业务消息很大必须调大这个值否则生产者会发送失败。同时客户端的发送和接收参数也要相应调整。对于autoCreateTopicEnable和autoCreateSubscriptionGroup在测试环境可以设为true方便调试但在生产环境强烈建议设为false。Topic和消费组应该由运维或架构师严格规划后手动创建避免应用程序随意创建不合规的资源导致集群管理混乱。4. Proxy的配置与核心作用告别直连BrokerRocketMQ 5.x 引入Proxy组件是架构上的一大进步。在旧版本中客户端需要直连多个Broker维护连接和路由信息比较复杂。Proxy模式相当于一个智能的“网关”或“代理”客户端只需要连接Proxy由Proxy负责与后端的Broker集群通信。4.1 Proxy配置其实很简单Proxy的配置文件是conf/rmq-proxy.json内容非常简洁{ rocketMQClusterName: rocketmq-cluster, remotingListenPort: 28080, grpcServerPort: 28081 }rocketMQClusterName必须和Broker配置中的集群名一致这样Proxy才知道自己代理的是哪个集群。remotingListenPort用于兼容旧版客户端的Remoting协议端口。grpcServerPort用于新版客户端的gRPC协议端口。未来趋势是gRPC。配置完成后两台服务器上的这个文件内容应该一模一样。然后分别启动即可。4.2 为什么用了Proxy是“真香”我实测下来引入Proxy带来了几个实实在在的好处客户端简化客户端配置变得极其简单只需要知道Proxy的地址和端口比如192.168.31.11:28081不再需要关心后面有多少个NameServer和Broker。这对云原生、容器化环境特别友好。连接管理Proxy帮客户端管理了到所有Broker的长连接减少了客户端自身的资源消耗和复杂度。协议转换统一对外提供gRPC等现代协议内部仍用Remoting协议与Broker通信便于架构演进。潜在扩展性未来可以在Proxy层集成更多的功能如限流、审计、安全认证等而无需改动Broker。这里有个关键提醒启动Proxy时需要指定NameServer的地址这样Proxy才能从NameServer拉取路由信息。我们在启动脚本里会体现。5. 启动、验证与排错见证集群诞生的时刻配置写好了最紧张的就是启动和验证环节。我建议把启动命令写成脚本方便管理和维护。5.1 修改启动脚本避开JDK高版本的坑前面提到JDK 21下启动脚本的参数问题。我们需要修改两个文件bin/runserver.sh和bin/runbroker.sh。打开文件找到JVM配置部分通常以JAVA_OPT${JAVA_OPT} -server ...开头。找到并删除-XX:-UseBiasedLocking这个参数。在JDK 21中它已经无效了留着只会报警告。同时根据你服务器的内存大小调整堆内存参数-Xms,-Xmx,-Xmn。对于测试或中小型生产环境我给NameServer和Proxy分配256m起步给Broker分配1G或更多具体要看消息吞吐量和磁盘速度。5.2 分步启动与日志观察我为每台服务器编写了启动脚本start_all.sh内容如下以192.168.31.11为例#!/bin/bash ROCKETMQ_DIR/usr/local/rocketmq CONFIG_DIR$ROCKETMQ_DIR/conf/2m-2s-async # 注意这里Proxy需要连接所有的NameServer NAMESRV_ADDRESSES192.168.31.11:9876;192.168.31.12:9876 echo Starting NameServer... nohup sh $ROCKETMQ_DIR/bin/mqnamesrv $ROCKETMQ_DIR/logs/namesrv.log 21 sleep 10 # 给NameServer一点启动时间 echo Starting Broker Master (broker-a)... nohup sh $ROCKETMQ_DIR/bin/mqbroker -c $CONFIG_DIR/broker-a.properties $ROCKETMQ_DIR/logs/broker-a.log 21 sleep 5 echo Starting Broker Slave (broker-b-s)... nohup sh $ROCKETMQ_DIR/bin/mqbroker -c $CONFIG_DIR/broker-b-s.properties $ROCKETMQ_DIR/logs/broker-b-s.log 21 sleep 5 echo Starting Proxy... nohup sh $ROCKETMQ_DIR/bin/mqproxy -n $NAMESRV_ADDRESSES -pc $ROCKETMQ_DIR/conf/rmq-proxy.json $ROCKETMQ_DIR/logs/proxy.log 21 echo All services on 192.168.31.11 started. Check logs for details.给脚本加执行权限chmod x start_all.sh然后运行。务必按照顺序启动先启动两个NameServer可以同时再启动Broker最后启动Proxy。启动后立刻查看日志是排错的不二法门# 查看NameServer日志关注是否有绑定端口成功的提示 tail -f /usr/local/rocketmq/logs/rocketmqlogs/namesrv.log # 查看Broker日志关注是否成功连接到NameServer以及主从关系是否建立 tail -f /usr/local/rocketmq/logs/rocketmqlogs/broker.log # 查看Proxy日志关注是否成功启动并连接到NameServer tail -f /usr/local/rocketmq/logs/proxy.log健康的日志会看到类似The Name Server boot success.register broker to name server finishedlisten port: 10911以及slave synchronize master fall behind(这是正常的表示Slave在同步Master) 等信息。5.3 集群状态验证用工具说话光看日志启动成功还不够我们需要用工具验证集群拓扑是否正确。使用命令行工具查看集群信息cd /usr/local/rocketmq/bin ./mqadmin clusterList -n 192.168.31.11:9876这个命令会列出集群中所有的Broker信息。你应该能看到两个Broker组broker-a和broker-b每组都有一个BID0Master和一个BID1Slave并且它们的地址addr是交叉分布在两台服务器上的。创建Topic进行生产消费测试# 创建一个测试Topic将其路由到我们的集群 ./mqadmin updateTopic -n 192.168.31.11:9876 -t TestTopic -c rocketmq-cluster # 使用自带的tools工具快速测试生产消息 export NAMESRV_ADDR192.168.31.11:9876 ./tools.sh org.apache.rocketmq.example.quickstart.Producer # 在另一个终端测试消费消息 ./tools.sh org.apache.rocketmq.example.quickstart.Consumer如果生产和消费都能正常进行说明Broker集群工作正常。通过Proxy测试 这是验证Proxy是否生效的关键。你需要修改客户端比如一个简单的Java测试程序的连接地址将NameServer地址换成Proxy的gRPC地址例如192.168.31.11:28081。如果依然能正常生产和消费消息那么恭喜你Proxy模式也部署成功了6. 管理控制台与进阶话题集群跑起来了我们还需要一个“仪表盘”来直观地监控它。RocketMQ官方提供了一个Dashboard用Docker部署最简单docker run -d --name rocketmq-dashboard \ -e JAVA_OPTS-Drocketmq.namesrv.addr192.168.31.11:9876;192.168.31.12:9876 \ -p 8080:8080 \ -t apacherocketmq/rocketmq-dashboard:latest访问http://你的服务器IP:8080在控制台输入任一个NameServer地址如192.168.31.11:9876就能看到集群、Topic、消费组等所有信息还能进行简单的运维操作非常方便。最后聊聊RocketMQ 5.x的另一种部署模式Controller模式。我们本文部署的是传统的NameServerBrokerProxy模式。而在Controller模式下RocketMQ引入了类似Raft的共识算法用一组Controller节点替代了NameServer来实现更高一致性的元数据管理。这对于对集群高可用性和数据强一致性有极致要求的场景如金融核心交易是更好的选择。但它的部署和配置会更复杂一些需要至少三个Controller节点。如果你的业务暂时不需要这种级别的强一致那么本文的经典架构已经完全够用而且更简单、更成熟。部署完成后记得将启动脚本加入服务器的开机自启动比如写入/etc/rc.local或配置成systemd服务并配置好日志轮转如使用logrotate这些都是保障线上服务稳定运行的基本操作。希望这份融合了实战经验和避坑细节的指南能帮你顺利搭建起自己的RocketMQ 5.2集群。如果在操作中遇到新的问题不妨多看看日志那里面通常藏着所有问题的答案。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2415756.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!