如何给 Go 语言的 TCP 聊天服务加上 ACK 可靠送达机制
如何给 Go 语言的 TCP 聊天服务加上 ACK 可靠送达机制在我们学习 Go 语言网络编程时实现一个简单的 TCP 聊天室往往是入门的必经之路。原项目8h-GoIM通过建立 TCP 连接并将接收到的文本广播给所有在线用户非常直观地展示了 Go 语言在并发和通道设计上的优雅。然而如果要把这个“玩具”推向生产环境的“可用消息通道”单纯的文本广播就显得捉襟见肘了。最近我为这个项目引入了消息 ACK确认机制。本文将以技术分享的形式复盘这次重构的设计思考、实现细节以及踩过的坑。为什么纯文本广播不够用在最初的设计中客户端发来一行文本服务器原封不动地转发给其他 socket。虽然简单但在真实的弱网环境下存在以下致命缺陷重复推送不可控去重客户端因为网络超时触发重试服务端会把同一句话当作两条新消息广播消息时序混乱有序多客户端高并发发言时没有一个基准的序号各个接收端看到的消息顺序可能不一致无状态导致的丢失可靠网络瞬断或对端掉线期间的消息一旦错过就永远消失了服务器没有任何送达记录。因此我们的首要目标并不是一上来就搞定高可用的分布式架构而是立足单机先确保在线场景下消息“不重、不乱序、可确认”为以后的离线消息漫游打下结构化的基石。协议重塑从字符串到状态机要追踪一条消息的生命周期首先必须给它发“身份证”。为了兼顾现有代码里bufio.Reader按行读取的简便性我选用了单行 JSON作为传输协议。我们定义了一个包含类型和各种元数据的Message结构{type:send,client_msg_id:c-12345,chat_id:room1,from:alice,body:hello world!}这里面藏了几个关键字段的设计考量type我们把它分成了send(发送)、send_ack(发送确认)、deliver(投递)、deliver_ack(投递确认) 和sync(拉取同步)。client_msg_id这是去重的核心。客户端在本地生成一个唯一 ID如 UUID 或纳秒时间戳服务端据此判断是否为重复请求。server_msg_id服务端接收落盘后生成的全局唯一 ID作为系统内流转的凭证。seq服务端针对某个chat_id会话空间分配的严格单调递增序号用来保证业务侧的严格有序。当服务器收到上述的send请求并处理成功后会即刻响应{type:send_ack,client_msg_id:c-12345,server_msg_id:s-98765,seq:10}紧接着服务器打包deliver消息推给目标接收者接收者收到后必须回复deliver_ack。核心架构拆解在服务端要支撑这套状态扭转我引入了三个关键组件隔离了原先混在单一逻辑里的业务Store (内存状态管理器)目前的实现叫InMemoryStore它承担了三个职责防重内部用 Map 维护(from, client_msg_id)如果遇到历史出现过的键直接返回原有的send_ack极简实现幂等分配序列号通过对chat_id的原子操作自增生成连续的seq维护状态为每一条投递记录打上Pending待确认标签。DeliverQueue DeliverWorker (异步投递队列)客户端发完消息直接获得send_ack代表服务器“已揽收”随后这个server_msg_id会被扔进异步的DeliverQueue中。后台的DeliverWorker监听这个队列取出消息后从 Store 拉取目标接收人无论是私聊的一个人还是广播的所有人如果对方在线发送deliverJSON对方不仅收到了数据也知道了server_msg_id借此回传deliver_ack。如果对方不在线这条记录依然在 Store 中保持 Pending。业务入口聚合处理改造了原来的字符串处理流程HandleClientSend伪代码如下funcHandleClientSend(req*Message){// 1. 幂等拦截ifstore.Exist(from,client_msg_id){returnreply(send_ack)}// 2. 生成凭证seq:store.NextSeq(chat_id)serverMsgID:newID()// 3. 落库与投递列表store.SaveMessage(serverMsgID,req)store.SaveDelivery(serverMsgID,recipients)// 4. 回写成功响应reply(send_ack_with_seq)// 5. 送入后台投递enqueue(DeliverQueue,serverMsgID)}实践中的反思与权衡由于是迭代性质的升级过程中做了一些务实的取舍为什么把seq生成放在服务端如果依赖客户端维护序列号在多端并发发送同一个群组通道时必然产生冲突。服务端作为唯一权威的发号器保证了同一chat_id下的单调性接收端只需要依据seq就可以轻松识别出乱序或者缺失。关于拥塞控制原版项目一旦对端读的慢写入就会被卡死阻塞。现在因为投递操作变成了独立的异步任务并交给客户端专属的 GoroutineSelect处理配合定期的心跳或写超时机制拥塞引起的系统假死已被规避大不了断开那个死木头连接反正我们的 Store 仍会把发送状态定义为 Pending。测试验证要验证这个新机制非常直观。开两个终端连接服务器客户端 A 发送{type:send,client_msg_id:apple123,body:Hello!}客户端 A 收到服务器回应{type:send_ack,client_msg_id:apple123,server_msg_id:s-001,seq:1}客户端 B 收到被推过来的消息{type:deliver,server_msg_id:s-001,from:客户端A,seq:1,body:Hello!}客户端 B 按照规矩给服务器回传{type:deliver_ack,server_msg_id:s-001}整个闭环极其清晰。如果 B 故意不回发deliver_ack该记录将一直“挂起”这是我们后续补偿机制的基础。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2497325.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!