MongoDB分片集群实战:从零搭建高可用分布式数据库

news2026/3/13 17:23:08
1. 为什么你需要一个MongoDB分片集群如果你正在读这篇文章我猜你大概率已经遇到了单台MongoDB服务器的瓶颈。可能是磁盘空间快满了加硬盘也解决不了根本问题也可能是查询速度越来越慢即使加了索引面对海量数据也力不从心。我经历过好几次这种场景半夜被报警叫醒一看是数据库CPU或IO打满那种感觉真是糟透了。这时候分片Sharding就成了你的“救命稻草”。简单来说分片就是把一个超大的数据集水平切分成很多小块然后把这些小块分散存储到多台服务器上。每一台服务器只负责存储和处理一部分数据这样无论是存储容量还是读写性能都可以通过增加服务器来线性扩展。这就像一家超市当货物多到一间仓库放不下时老板不会去盖一个无比高的超级仓库垂直扩展升级单机硬件而是会选择多盖几间平房仓库水平扩展增加机器管理起来更灵活成本也可能更低。一个完整的MongoDB分片集群可不是简单启动几个mongod进程就完事了。它由三个核心角色组成缺一不可分片Shard真正存放数据的地方。为了保证高可用每个分片本身通常也是一个副本集Replica Set由一主多从可能还有仲裁节点组成。这样即使某台机器宕机数据也不会丢失服务也不会中断。配置服务器Config Server集群的“大脑”和“目录”。它存储了整个分片集群的元数据比如哪些数据存在哪个分片上集群里有哪些分片这些信息至关重要。因此配置服务器也必须是一个副本集确保元数据的高可用。查询路由Mongos集群的“前台”和“调度员”。应用程序不直接连接分片而是连接mongos进程。mongos根据配置服务器里的元数据把客户端的查询请求路由到正确的分片上去并把各个分片返回的结果聚合起来再返回给客户端。mongos本身是无状态的你可以启动多个从而实现负载均衡和高可用。听起来有点复杂对吧别担心我当初搭建第一个分片集群时也一头雾水踩了不少坑。但跟着下面的步骤一步步来你会发现从零搭建一个高可用的分片集群其实就像搭积木一样有清晰的章法可循。无论你是要为下一个千万级用户的应用做准备还是想解决当前数据库的性能瓶颈这篇文章都能给你一份可落地的实战指南。2. 动手之前集群规划与资源准备老话说得好磨刀不误砍柴工。搭建一个要用于生产环境的分片集群前期的规划至关重要。规划不好后期扩容、维护都会非常痛苦。这里我结合自己的经验给你一套清晰的规划思路。2.1 服务器与角色规划我们假设一个经典的生产级最小高可用架构3台物理服务器或虚拟机。为什么是3台因为MongoDB的副本集至少需要3个节点才能实现自动故障转移1主、1从、1仲裁或者1主2从。我们将在这3台机器上部署所有组件。每台机器上会运行多个MongoDB进程角色分配如下表所示服务器主机名运行的服务进程 (端口)说明mongo01Config Server (21000), Shard1 (27001), Mongos (20000)配置服务器副本集成员、分片1副本集成员、路由服务mongo02Config Server (21000), Shard2 (27002), Mongos (20000)配置服务器副本集成员、分片2副本集成员、路由服务mongo03Config Server (21000), Shard3 (27003), Mongos (20000)配置服务器副本集成员、分片3副本集成员、路由服务这样规划的好处是什么资源利用率高每台机器都承载了部分配置服务、数据分片和路由服务没有闲置的机器。高可用任何一个组件Config Server, Shard, Mongos在单台机器宕机时集群整体服务依然可用。因为每个副本集的三成员分散在三台机器上。成本与性能平衡这是实现高可用的最低机器数量要求。当然如果你的数据和访问量极大可以将Shard和Config Server部署在独立的、更强的机器上Mongos也可以单独部署在应用服务器前端。2.2 目录与端口规划统一、清晰的目录结构能让你在管理和排错时事半功倍。我习惯将所有MongoDB相关的数据、日志、配置都放在一个根目录下比如/mongodb。在你的三台服务器上分别执行以下命令来创建目录# 创建根目录 mkdir -p /mongodb # 创建数据和日志目录 mkdir -p /mongodb/data/{config,shard1,shard2,shard3} mkdir -p /mongodb/logs/{config,shard1,shard2,shard3,mongos} # 创建软件和配置目录 (通常放/usr/local下) mkdir -p /usr/local/mongodb/{conf,server}端口规划也需要提前定好避免冲突。我们沿用一种清晰的约定Mongos:20000- 这是应用连接集群的入口。Config Server:21000- 集群元数据服务。Shard1:27001- 第一个数据分片。Shard2:27002- 第二个数据分片。Shard3:27003- 第三个数据分片。记住这些端口需要在服务器的防火墙中开放或者直接在内网安全环境中操作。同时确保三台服务器之间主机名或IP可以互相解析这是副本集通信的基础。你可以修改/etc/hosts文件来实现。2.3 软件安装与环境变量接下来在三台服务器上安装MongoDB软件。我们以社区版4.0.26为例你可以从MongoDB官网下载其他版本但建议使用4.0或以上版本对分片集群支持更完善。# 进入本地目录上传下载好的安装包 cd /usr/local/src # 假设安装包名为 mongodb-linux-x86_64-rhel70-4.0.26.tgz tar -zxvf mongodb-linux-x86_64-rhel70-4.0.26.tgz # 重命名并移动到目标位置 mv mongodb-linux-x86_64-rhel70-4.0.26 /usr/local/mongodb/server为了方便使用mongod、mongos等命令我们配置环境变量vim /etc/profile # 在文件末尾添加以下内容 export MONGODB_HOME/usr/local/mongodb/server export PATH$MONGODB_HOME/bin:$PATH保存后执行source /etc/profile让配置生效。现在你可以在任何位置直接输入mongo --version来验证安装是否成功了。3. 核心组件配置一步步搭建集群骨架规划好之后我们开始正式搭建。这个过程就像组装一台精密仪器需要按照顺序来。我的经验是先搭建配置服务器副本集再搭建各个分片的副本集最后启动路由服务并串联起整个集群。3.1 配置服务器副本集集群的“大脑”配置服务器存储了集群的所有元数据必须首先启动并初始化。我们在三台机器上为Config Server创建配置文件。在/usr/local/mongodb/conf/目录下创建config.conf文件内容如下。注意三台机器的配置文件几乎一样除了bindIp如果你有特定需求通常设为0.0.0.0监听所有IP但在生产环境建议绑定内网IP。# /usr/local/mongodb/conf/config.conf systemLog: destination: file logAppend: true path: /mongodb/logs/config/config.log storage: dbPath: /mongodb/data/config journal: enabled: true processManagement: fork: true pidFilePath: /mongodb/logs/config/configsrv.pid net: port: 21000 bindIp: 0.0.0.0 replication: replSetName: config # 副本集名称三台必须一致 sharding: clusterRole: configsvr # 明确指定角色为配置服务器关键参数解读replication.replSetName: config定义这个副本集的名字叫config。sharding.clusterRole: configsvr这是关键告诉MongoDB这个实例是配置服务器。配置服务器默认使用WiredTiger存储引擎且cacheSizeGB配置不生效通常很小比如0.5GB。在三台服务器上分别启动Config Server/usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/config.conf使用ps -ef | grep mongod检查进程是否启动成功并查看日志文件/mongodb/logs/config/config.log有无报错。接下来只需要在其中一台服务器上比如mongo01初始化这个副本集# 连接到本地的Config Server实例 mongo mongo01:21000进入MongoDB Shell后执行初始化命令config { _id: config, members: [ { _id: 0, host: mongo01:21000 }, { _id: 1, host: mongo02:21000 }, { _id: 2, host: mongo03:21000 } ] } rs.initiate(config)执行成功后提示符会从变成config:PRIMARY或config:SECONDARY表示副本集初始化成功。你可以用rs.status()命令查看副本集的详细状态确保三个成员都是健康的health : 1stateStr : PRIMARY或SECONDARY。3.2 配置数据分片副本集数据的“家”配置服务器就绪后我们来搭建存放数据的分片。每个分片都是一个独立的副本集。我们以第一个分片shard1为例其他分片配置类似。创建shard1的配置文件/usr/local/mongodb/conf/shard1.conf# /usr/local/mongodb/conf/shard1.conf systemLog: destination: file logAppend: true path: /mongodb/logs/shard1/shard1.log storage: dbPath: /mongodb/data/shard1 journal: enabled: true wiredTiger: engineConfig: cacheSizeGB: 1 # 根据机器内存调整通常分配机器内存的50%-60%给所有MongoDB实例 processManagement: fork: true pidFilePath: /mongodb/logs/shard1/shard1.pid net: port: 27001 bindIp: 0.0.0.0 replication: replSetName: shard1 # 副本集名称 sharding: clusterRole: shardsvr # 关键指定角色为数据分片重要提示cacheSizeGB是WiredTiger存储引擎的内存缓存大小对性能影响巨大。你需要根据机器总内存和本机运行的其他MongoDB实例数量来合理分配。比如机器有8G内存运行了Config Server约0.5G、Shard1、Mongos无缓存那么可以给Shard1分配4-5GB。将配置文件同步到另外两台机器scp /usr/local/mongodb/conf/shard1.conf rootmongo02:/usr/local/mongodb/conf/ scp /usr/local/mongodb/conf/shard1.conf rootmongo03:/usr/local/mongodb/conf/然后在三台机器上分别启动shard1服务/usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard1.conf同样只需要在一台机器上比如mongo01初始化shard1副本集。但这里有个小技巧我们可以为副本集成员设置优先级priority和仲裁节点arbiterOnly来影响主节点的选举。mongo mongo01:27001use admin config { _id: shard1, members: [ { _id: 0, host: mongo01:27001, priority: 2 }, // 优先级最高优先成为主节点 { _id: 1, host: mongo02:27001, priority: 1 }, // 优先级次之 { _id: 2, host: mongo03:27001, arbiterOnly: true } // 仲裁节点不存数据只参与投票 ] } rs.initiate(config)priority数字越大在选举中成为主节点的可能性越高。我将mongo01的优先级设为2希望它通常作为主节点。arbiterOnly: true仲裁节点。它不保存数据副本只参与主节点选举投票用于在偶数个数据节点时打破平局节省硬件资源。按照完全相同的模式创建并初始化shard2端口27002和shard3端口27003。记得修改配置文件中的dbPath、log path、pidFilePath、port和replSetName。初始化命令中的主机端口也要相应更改。你可以把shard1.conf复制为shard2.conf和shard3.conf然后全局替换端口和路径关键字。3.3 配置并启动Mongos集群的“网关”现在集群的“大脑”Config Server和“仓库”Shards都准备好了需要一个“调度中心”来连接它们这就是mongos。mongos的配置比mongod简单因为它不存储数据。创建mongos的配置文件/usr/local/mongodb/conf/mongos.conf# /usr/local/mongodb/conf/mongos.conf systemLog: destination: file logAppend: true path: /mongodb/logs/mongos/mongos.log processManagement: fork: true pidFilePath: /mongodb/logs/mongos/mongos.pid net: port: 20000 bindIp: 0.0.0.0 sharding: configDB: config/mongo01:21000,mongo02:21000,mongo03:21000 # 指向配置服务器副本集最关键的一行configDB: config/mongo01:21000,mongo02:21000,mongo03:21000。这里config是我们之前定义的配置服务器副本集的名字后面跟着它的三个成员地址。mongos通过这个配置找到集群的“大脑”。将配置文件同步到另外两台机器然后在三台机器上分别启动mongos/usr/local/mongodb/server/bin/mongos -f /usr/local/mongodb/conf/mongos.conf注意启动命令是mongos不是mongod。启动后你可以连接mongos的端口20000来管理集群了。4. 整合与安全让集群真正可用组件都跑起来了但现在它们还是各自为政。我们需要通过mongos将分片添加到集群中并配置安全认证这样才能用于生产环境。4.1 添加分片到集群连接到任意一个mongos实例比如在mongo01上mongo mongo01:20000现在你进入了集群的路由层。执行以下命令将三个分片副本集添加到集群中sh.addShard(shard1/mongo01:27001,mongo02:27001,mongo03:27001) sh.addShard(shard2/mongo01:27002,mongo02:27002,mongo03:27002) sh.addShard(shard3/mongo01:27003,mongo02:27003,mongo03:27003)命令的格式是sh.addShard(“副本集名称/成员1地址,成员2地址,成员3地址”)。mongos会自动去连接这些地址识别出副本集的主节点。添加完成后使用sh.status()命令查看集群状态。这个命令的输出信息非常丰富你会看到分片列表确认三个shard都已加入状态为“online”。数据库列表目前只有admin,config,local等系统库。还没有任何数据库启用了分片功能。以及一些其他监控信息。4.2 配置集群安全认证一个暴露在网络上且没有认证的数据库是极其危险的。我们必须为集群启用身份验证。MongoDB分片集群的认证稍微复杂一点需要用到KeyFile内部认证和用户密码认证。第一步生成KeyFile。KeyFile用于集群内部组件Config Server, Shard, Mongos之间的认证确保只有合法的节点能加入集群。在一台机器上生成即可openssl rand -base64 756 /usr/local/mongodb/conf/KeyFile.file chmod 400 /usr/local/mongodb/conf/KeyFile.file # 修改权限只允许所有者读然后将这个KeyFile文件安全地拷贝到其他两台服务器的相同目录下并同样设置权限为400。第二步创建管理员用户。在启用认证之前我们需要先创建一个超级管理员。在mongos上操作mongo mongo01:20000use admin db.createUser({ user: clusterAdmin, pwd: YourStrongPasswordHere, // 请务必使用强密码 roles: [{ role: root, db: admin }] })创建成功后先别急着退出。因为接下来我们要重启所有服务以启用认证所以需要先关闭所有服务。关闭顺序有讲究建议先关所有mongos再关所有config server最后关所有shard。在每个组件上三台机器的服务都关完再关下一个。# 关闭mongos (在mongos shell里) use admin db.shutdownServer() # 或者从操作系统关闭 (在每个运行mongos的服务器上) kill cat /mongodb/logs/mongos/mongos.pid # 关闭config server和shard (在每个服务器上) /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/config.conf --shutdown /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard1.conf --shutdown # ... 关闭shard2, shard3第三步修改所有配置文件添加安全配置。在所有服务器的config.conf,shard1.conf,shard2.conf,shard3.conf文件末尾添加security: keyFile: /usr/local/mongodb/conf/KeyFile.file authorization: enabled在mongos.conf文件末尾添加security: keyFile: /usr/local/mongodb/conf/KeyFile.file注意mongos的配置里只有keyFile没有authorization: enabled因为mongos本身不存储用户数据它只是透传认证信息到配置服务器。第四步按顺序启动所有服务并验证。启动顺序与关闭顺序相反先启动所有config server再启动所有shard最后启动所有mongos。# 在三台机器上依次启动 /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/config.conf /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard1.conf /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard2.conf /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard3.conf /usr/local/mongodb/server/bin/mongos -f /usr/local/mongodb/conf/mongos.conf全部启动后再次连接mongos这次需要认证了mongo mongo01:20000 -u clusterAdmin -p YourStrongPasswordHere --authenticationDatabase admin连接成功后执行sh.status()应该能看到和之前一样的分片信息说明集群在安全模式下正常运行了。5. 实战分片让你的数据分布开来集群搭建并加固好了但现在数据还不知道怎么分片。我们需要告诉MongoDB对哪个数据库、哪个集合进行分片以及按照什么规则片键来分。5.1 启用数据库与集合分片假设我们有一个名为userdb的数据库里面有一张非常庞大的profiles表集合我们想对它进行分片。首先通过认证的mongos连接启用数据库的分片功能use admin db.auth(clusterAdmin, YourStrongPasswordHere) // 为userdb数据库启用分片。这只是允许该库下的集合被分片并不立即分发数据。 sh.enableSharding(userdb)然后选择对userdb.profiles集合进行分片并指定片键Shard Key。片键的选择是分片设计中最关键、最影响性能的一步必须慎重。我们假设profiles集合有一个user_id字段且查询大多基于此字段。// 对集合进行分片片键是user_id字段哈希策略。 sh.shardCollection(userdb.profiles, { user_id: hashed })这里我使用了hashed分片策略。这意味着MongoDB会对user_id的值计算一个哈希值然后根据这个哈希值来决定数据落在哪个分片上。哈希分片的好处是能将数据均匀地分散到各个分片避免热点问题特别适合像user_id这种单调递增或随机的键。缺点是范围查询如user_idbetween 1000 and 2000效率会降低因为相关数据可能分布在所有分片上。另一种策略是范围分片例如sh.shardCollection(userdb.profiles, { user_id: 1 })。数据会根据user_id值的范围连续分布。这有利于范围查询但可能导致数据分布不均新数据都写到最后一个分片形成“热点”。5.2 理解数据块与均衡器MongoDB分片的基本单位是块Chunk。默认情况下一个块的大小是64MB在早期版本是64MB4.4以后默认是128MB。当某个分片上的某个集合的数据量增长导致块的数量超过一定阈值时一个后台进程均衡器Balancer就会开始工作。均衡器会自动将某些块从一个负载较高的分片迁移到负载较低的分片直到所有分片上的块数量大致相等。这个过程是自动的但你也可以手动干预。例如你可以查看块分布use config db.chunks.find({ns: userdb.profiles}).count() // 查看该集合总共有多少块 db.chunks.aggregate([{$match: {ns: userdb.profiles}}, {$group: {_id: $shard, count: {$sum: 1}}}]) // 查看每个分片上有多少块你甚至可以修改块大小谨慎操作use config db.settings.save({ _id: chunksize, value: 32 }) // 将块大小改为32MB更小的块大小意味着更频繁的迁移和更精细的均衡但也会增加元数据开销。更大的块大小则相反。通常不建议修改默认值除非你有非常明确的理由和充分的测试。5.3 插入测试数据并观察分布让我们插入一些测试数据看看分片是否真的起作用了。use userdb // 插入10万条测试数据 for (var i 1; i 100000; i) { db.profiles.insert({ user_id: i, name: User_ i, email: user i example.com, created_at: new Date() }); }插入完成后立即查看数据分布可能数据还在写入的分片上通常是primary shard即启用分片时该数据库所在的那个初始分片。db.profiles.getShardDistribution()这个命令会输出每个分片上该集合的数据大小和文档数量。刚插入完你可能发现数据几乎都在一个分片上。别急这是正常的。均衡器并不是实时运行的。你可以等待一段时间几分钟到几十分钟取决于数据量再次运行该命令。你会看到数据块正在被自动迁移最终三个分片上的数据量和文档数会趋于平衡。你也可以通过sh.status()看到更详细的集群状态包括每个集合的分片信息、块分布和数据库的primary shard。6. 避坑指南与生产环境建议跟着上面的步骤走你应该能成功搭建一个分片集群。但“搭起来”和“用得好”是两回事。下面这些坑都是我或者我的团队真金白银踩出来的希望能帮你绕过去。坑一片键选择不当。这是分片集群最大的“性能杀手”。避免选择低基数字段如性别、状态码作为片键这会导致数据无法有效分散。也尽量避免单调递增的片键如时间戳、自增ID这会导致所有新写入都集中到最后一个分片形成写入热点。理想的片键应该具备高基数、写分布均匀、能匹配大多数查询模式。复合片键如{customer_id: 1, order_date: -1}常常是一个好选择。坑二连接池与mongos部署。你的应用程序应该连接mongos而不是直连mongod。并且一定要在应用端使用连接池。频繁地创建和销毁到mongos的连接开销很大。同时mongos本身是无状态的你应该在应用服务器前端部署多个mongos实例并用负载均衡器如Nginx, HAProxy或DNS轮询来做负载均衡和高可用。不要把所有的压力都放在一个mongos上。坑三监控与备份。分片集群的监控比单机复杂得多。你需要关注每个分片副本集的状态主从延迟、复制状态、每个mongos的连接数和请求队列、配置服务器的负载、均衡器的状态和迁移历史。MongoDB自带的db.currentOp()、db.serverStatus()、sh.status()是基础生产环境强烈建议使用更专业的监控系统如Prometheus Grafana配合MongoDB Exporter。备份也不能再用简单的mongodump了需要考虑集群的一致性快照或者使用基于副本集节点的备份策略。坑四谨慎操作管理命令。在分片集群上执行某些管理命令需要格外小心。例如删除集合db.collection.drop()在分片集群上它会清除所有分片上的数据以及配置服务器上的元数据无法回滚。再比如修改集合的片键是极其困难的几乎需要重建整个集合。任何大的模式变更或数据迁移一定要先在测试环境充分验证。坑五硬件与配置。确保所有服务器特别是同一个副本集的成员之间的网络延迟低且稳定。高延迟会导致复制滞后影响读一致性和故障切换时间。配置服务器的磁盘一定要可靠建议使用SSD因为它的读写性能直接影响集群元数据操作的速度。分片节点的内存要充足确保wiredTigerCacheSizeGB设置合理让热数据尽可能留在内存中。最后记住分片不是银弹。它会引入额外的复杂度包括查询路由开销、跨分片事务的限制在4.2版本后才支持多文档事务但有性能考量、以及运维复杂度的提升。在决定分片之前先问问自己是否已经用尽了所有单机优化的手段比如更合理的索引、读写分离、归档历史数据等。如果答案是肯定的那么欢迎来到分布式数据库的世界虽然挑战更多但它能带来的扩展能力是应对业务增长的强大后盾。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2408291.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…