MongoDB分片集群实战:从零搭建高可用分布式数据库
1. 为什么你需要一个MongoDB分片集群如果你正在读这篇文章我猜你大概率已经遇到了单台MongoDB服务器的瓶颈。可能是磁盘空间快满了加硬盘也解决不了根本问题也可能是查询速度越来越慢即使加了索引面对海量数据也力不从心。我经历过好几次这种场景半夜被报警叫醒一看是数据库CPU或IO打满那种感觉真是糟透了。这时候分片Sharding就成了你的“救命稻草”。简单来说分片就是把一个超大的数据集水平切分成很多小块然后把这些小块分散存储到多台服务器上。每一台服务器只负责存储和处理一部分数据这样无论是存储容量还是读写性能都可以通过增加服务器来线性扩展。这就像一家超市当货物多到一间仓库放不下时老板不会去盖一个无比高的超级仓库垂直扩展升级单机硬件而是会选择多盖几间平房仓库水平扩展增加机器管理起来更灵活成本也可能更低。一个完整的MongoDB分片集群可不是简单启动几个mongod进程就完事了。它由三个核心角色组成缺一不可分片Shard真正存放数据的地方。为了保证高可用每个分片本身通常也是一个副本集Replica Set由一主多从可能还有仲裁节点组成。这样即使某台机器宕机数据也不会丢失服务也不会中断。配置服务器Config Server集群的“大脑”和“目录”。它存储了整个分片集群的元数据比如哪些数据存在哪个分片上集群里有哪些分片这些信息至关重要。因此配置服务器也必须是一个副本集确保元数据的高可用。查询路由Mongos集群的“前台”和“调度员”。应用程序不直接连接分片而是连接mongos进程。mongos根据配置服务器里的元数据把客户端的查询请求路由到正确的分片上去并把各个分片返回的结果聚合起来再返回给客户端。mongos本身是无状态的你可以启动多个从而实现负载均衡和高可用。听起来有点复杂对吧别担心我当初搭建第一个分片集群时也一头雾水踩了不少坑。但跟着下面的步骤一步步来你会发现从零搭建一个高可用的分片集群其实就像搭积木一样有清晰的章法可循。无论你是要为下一个千万级用户的应用做准备还是想解决当前数据库的性能瓶颈这篇文章都能给你一份可落地的实战指南。2. 动手之前集群规划与资源准备老话说得好磨刀不误砍柴工。搭建一个要用于生产环境的分片集群前期的规划至关重要。规划不好后期扩容、维护都会非常痛苦。这里我结合自己的经验给你一套清晰的规划思路。2.1 服务器与角色规划我们假设一个经典的生产级最小高可用架构3台物理服务器或虚拟机。为什么是3台因为MongoDB的副本集至少需要3个节点才能实现自动故障转移1主、1从、1仲裁或者1主2从。我们将在这3台机器上部署所有组件。每台机器上会运行多个MongoDB进程角色分配如下表所示服务器主机名运行的服务进程 (端口)说明mongo01Config Server (21000), Shard1 (27001), Mongos (20000)配置服务器副本集成员、分片1副本集成员、路由服务mongo02Config Server (21000), Shard2 (27002), Mongos (20000)配置服务器副本集成员、分片2副本集成员、路由服务mongo03Config Server (21000), Shard3 (27003), Mongos (20000)配置服务器副本集成员、分片3副本集成员、路由服务这样规划的好处是什么资源利用率高每台机器都承载了部分配置服务、数据分片和路由服务没有闲置的机器。高可用任何一个组件Config Server, Shard, Mongos在单台机器宕机时集群整体服务依然可用。因为每个副本集的三成员分散在三台机器上。成本与性能平衡这是实现高可用的最低机器数量要求。当然如果你的数据和访问量极大可以将Shard和Config Server部署在独立的、更强的机器上Mongos也可以单独部署在应用服务器前端。2.2 目录与端口规划统一、清晰的目录结构能让你在管理和排错时事半功倍。我习惯将所有MongoDB相关的数据、日志、配置都放在一个根目录下比如/mongodb。在你的三台服务器上分别执行以下命令来创建目录# 创建根目录 mkdir -p /mongodb # 创建数据和日志目录 mkdir -p /mongodb/data/{config,shard1,shard2,shard3} mkdir -p /mongodb/logs/{config,shard1,shard2,shard3,mongos} # 创建软件和配置目录 (通常放/usr/local下) mkdir -p /usr/local/mongodb/{conf,server}端口规划也需要提前定好避免冲突。我们沿用一种清晰的约定Mongos:20000- 这是应用连接集群的入口。Config Server:21000- 集群元数据服务。Shard1:27001- 第一个数据分片。Shard2:27002- 第二个数据分片。Shard3:27003- 第三个数据分片。记住这些端口需要在服务器的防火墙中开放或者直接在内网安全环境中操作。同时确保三台服务器之间主机名或IP可以互相解析这是副本集通信的基础。你可以修改/etc/hosts文件来实现。2.3 软件安装与环境变量接下来在三台服务器上安装MongoDB软件。我们以社区版4.0.26为例你可以从MongoDB官网下载其他版本但建议使用4.0或以上版本对分片集群支持更完善。# 进入本地目录上传下载好的安装包 cd /usr/local/src # 假设安装包名为 mongodb-linux-x86_64-rhel70-4.0.26.tgz tar -zxvf mongodb-linux-x86_64-rhel70-4.0.26.tgz # 重命名并移动到目标位置 mv mongodb-linux-x86_64-rhel70-4.0.26 /usr/local/mongodb/server为了方便使用mongod、mongos等命令我们配置环境变量vim /etc/profile # 在文件末尾添加以下内容 export MONGODB_HOME/usr/local/mongodb/server export PATH$MONGODB_HOME/bin:$PATH保存后执行source /etc/profile让配置生效。现在你可以在任何位置直接输入mongo --version来验证安装是否成功了。3. 核心组件配置一步步搭建集群骨架规划好之后我们开始正式搭建。这个过程就像组装一台精密仪器需要按照顺序来。我的经验是先搭建配置服务器副本集再搭建各个分片的副本集最后启动路由服务并串联起整个集群。3.1 配置服务器副本集集群的“大脑”配置服务器存储了集群的所有元数据必须首先启动并初始化。我们在三台机器上为Config Server创建配置文件。在/usr/local/mongodb/conf/目录下创建config.conf文件内容如下。注意三台机器的配置文件几乎一样除了bindIp如果你有特定需求通常设为0.0.0.0监听所有IP但在生产环境建议绑定内网IP。# /usr/local/mongodb/conf/config.conf systemLog: destination: file logAppend: true path: /mongodb/logs/config/config.log storage: dbPath: /mongodb/data/config journal: enabled: true processManagement: fork: true pidFilePath: /mongodb/logs/config/configsrv.pid net: port: 21000 bindIp: 0.0.0.0 replication: replSetName: config # 副本集名称三台必须一致 sharding: clusterRole: configsvr # 明确指定角色为配置服务器关键参数解读replication.replSetName: config定义这个副本集的名字叫config。sharding.clusterRole: configsvr这是关键告诉MongoDB这个实例是配置服务器。配置服务器默认使用WiredTiger存储引擎且cacheSizeGB配置不生效通常很小比如0.5GB。在三台服务器上分别启动Config Server/usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/config.conf使用ps -ef | grep mongod检查进程是否启动成功并查看日志文件/mongodb/logs/config/config.log有无报错。接下来只需要在其中一台服务器上比如mongo01初始化这个副本集# 连接到本地的Config Server实例 mongo mongo01:21000进入MongoDB Shell后执行初始化命令config { _id: config, members: [ { _id: 0, host: mongo01:21000 }, { _id: 1, host: mongo02:21000 }, { _id: 2, host: mongo03:21000 } ] } rs.initiate(config)执行成功后提示符会从变成config:PRIMARY或config:SECONDARY表示副本集初始化成功。你可以用rs.status()命令查看副本集的详细状态确保三个成员都是健康的health : 1stateStr : PRIMARY或SECONDARY。3.2 配置数据分片副本集数据的“家”配置服务器就绪后我们来搭建存放数据的分片。每个分片都是一个独立的副本集。我们以第一个分片shard1为例其他分片配置类似。创建shard1的配置文件/usr/local/mongodb/conf/shard1.conf# /usr/local/mongodb/conf/shard1.conf systemLog: destination: file logAppend: true path: /mongodb/logs/shard1/shard1.log storage: dbPath: /mongodb/data/shard1 journal: enabled: true wiredTiger: engineConfig: cacheSizeGB: 1 # 根据机器内存调整通常分配机器内存的50%-60%给所有MongoDB实例 processManagement: fork: true pidFilePath: /mongodb/logs/shard1/shard1.pid net: port: 27001 bindIp: 0.0.0.0 replication: replSetName: shard1 # 副本集名称 sharding: clusterRole: shardsvr # 关键指定角色为数据分片重要提示cacheSizeGB是WiredTiger存储引擎的内存缓存大小对性能影响巨大。你需要根据机器总内存和本机运行的其他MongoDB实例数量来合理分配。比如机器有8G内存运行了Config Server约0.5G、Shard1、Mongos无缓存那么可以给Shard1分配4-5GB。将配置文件同步到另外两台机器scp /usr/local/mongodb/conf/shard1.conf rootmongo02:/usr/local/mongodb/conf/ scp /usr/local/mongodb/conf/shard1.conf rootmongo03:/usr/local/mongodb/conf/然后在三台机器上分别启动shard1服务/usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard1.conf同样只需要在一台机器上比如mongo01初始化shard1副本集。但这里有个小技巧我们可以为副本集成员设置优先级priority和仲裁节点arbiterOnly来影响主节点的选举。mongo mongo01:27001use admin config { _id: shard1, members: [ { _id: 0, host: mongo01:27001, priority: 2 }, // 优先级最高优先成为主节点 { _id: 1, host: mongo02:27001, priority: 1 }, // 优先级次之 { _id: 2, host: mongo03:27001, arbiterOnly: true } // 仲裁节点不存数据只参与投票 ] } rs.initiate(config)priority数字越大在选举中成为主节点的可能性越高。我将mongo01的优先级设为2希望它通常作为主节点。arbiterOnly: true仲裁节点。它不保存数据副本只参与主节点选举投票用于在偶数个数据节点时打破平局节省硬件资源。按照完全相同的模式创建并初始化shard2端口27002和shard3端口27003。记得修改配置文件中的dbPath、log path、pidFilePath、port和replSetName。初始化命令中的主机端口也要相应更改。你可以把shard1.conf复制为shard2.conf和shard3.conf然后全局替换端口和路径关键字。3.3 配置并启动Mongos集群的“网关”现在集群的“大脑”Config Server和“仓库”Shards都准备好了需要一个“调度中心”来连接它们这就是mongos。mongos的配置比mongod简单因为它不存储数据。创建mongos的配置文件/usr/local/mongodb/conf/mongos.conf# /usr/local/mongodb/conf/mongos.conf systemLog: destination: file logAppend: true path: /mongodb/logs/mongos/mongos.log processManagement: fork: true pidFilePath: /mongodb/logs/mongos/mongos.pid net: port: 20000 bindIp: 0.0.0.0 sharding: configDB: config/mongo01:21000,mongo02:21000,mongo03:21000 # 指向配置服务器副本集最关键的一行configDB: config/mongo01:21000,mongo02:21000,mongo03:21000。这里config是我们之前定义的配置服务器副本集的名字后面跟着它的三个成员地址。mongos通过这个配置找到集群的“大脑”。将配置文件同步到另外两台机器然后在三台机器上分别启动mongos/usr/local/mongodb/server/bin/mongos -f /usr/local/mongodb/conf/mongos.conf注意启动命令是mongos不是mongod。启动后你可以连接mongos的端口20000来管理集群了。4. 整合与安全让集群真正可用组件都跑起来了但现在它们还是各自为政。我们需要通过mongos将分片添加到集群中并配置安全认证这样才能用于生产环境。4.1 添加分片到集群连接到任意一个mongos实例比如在mongo01上mongo mongo01:20000现在你进入了集群的路由层。执行以下命令将三个分片副本集添加到集群中sh.addShard(shard1/mongo01:27001,mongo02:27001,mongo03:27001) sh.addShard(shard2/mongo01:27002,mongo02:27002,mongo03:27002) sh.addShard(shard3/mongo01:27003,mongo02:27003,mongo03:27003)命令的格式是sh.addShard(“副本集名称/成员1地址,成员2地址,成员3地址”)。mongos会自动去连接这些地址识别出副本集的主节点。添加完成后使用sh.status()命令查看集群状态。这个命令的输出信息非常丰富你会看到分片列表确认三个shard都已加入状态为“online”。数据库列表目前只有admin,config,local等系统库。还没有任何数据库启用了分片功能。以及一些其他监控信息。4.2 配置集群安全认证一个暴露在网络上且没有认证的数据库是极其危险的。我们必须为集群启用身份验证。MongoDB分片集群的认证稍微复杂一点需要用到KeyFile内部认证和用户密码认证。第一步生成KeyFile。KeyFile用于集群内部组件Config Server, Shard, Mongos之间的认证确保只有合法的节点能加入集群。在一台机器上生成即可openssl rand -base64 756 /usr/local/mongodb/conf/KeyFile.file chmod 400 /usr/local/mongodb/conf/KeyFile.file # 修改权限只允许所有者读然后将这个KeyFile文件安全地拷贝到其他两台服务器的相同目录下并同样设置权限为400。第二步创建管理员用户。在启用认证之前我们需要先创建一个超级管理员。在mongos上操作mongo mongo01:20000use admin db.createUser({ user: clusterAdmin, pwd: YourStrongPasswordHere, // 请务必使用强密码 roles: [{ role: root, db: admin }] })创建成功后先别急着退出。因为接下来我们要重启所有服务以启用认证所以需要先关闭所有服务。关闭顺序有讲究建议先关所有mongos再关所有config server最后关所有shard。在每个组件上三台机器的服务都关完再关下一个。# 关闭mongos (在mongos shell里) use admin db.shutdownServer() # 或者从操作系统关闭 (在每个运行mongos的服务器上) kill cat /mongodb/logs/mongos/mongos.pid # 关闭config server和shard (在每个服务器上) /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/config.conf --shutdown /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard1.conf --shutdown # ... 关闭shard2, shard3第三步修改所有配置文件添加安全配置。在所有服务器的config.conf,shard1.conf,shard2.conf,shard3.conf文件末尾添加security: keyFile: /usr/local/mongodb/conf/KeyFile.file authorization: enabled在mongos.conf文件末尾添加security: keyFile: /usr/local/mongodb/conf/KeyFile.file注意mongos的配置里只有keyFile没有authorization: enabled因为mongos本身不存储用户数据它只是透传认证信息到配置服务器。第四步按顺序启动所有服务并验证。启动顺序与关闭顺序相反先启动所有config server再启动所有shard最后启动所有mongos。# 在三台机器上依次启动 /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/config.conf /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard1.conf /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard2.conf /usr/local/mongodb/server/bin/mongod -f /usr/local/mongodb/conf/shard3.conf /usr/local/mongodb/server/bin/mongos -f /usr/local/mongodb/conf/mongos.conf全部启动后再次连接mongos这次需要认证了mongo mongo01:20000 -u clusterAdmin -p YourStrongPasswordHere --authenticationDatabase admin连接成功后执行sh.status()应该能看到和之前一样的分片信息说明集群在安全模式下正常运行了。5. 实战分片让你的数据分布开来集群搭建并加固好了但现在数据还不知道怎么分片。我们需要告诉MongoDB对哪个数据库、哪个集合进行分片以及按照什么规则片键来分。5.1 启用数据库与集合分片假设我们有一个名为userdb的数据库里面有一张非常庞大的profiles表集合我们想对它进行分片。首先通过认证的mongos连接启用数据库的分片功能use admin db.auth(clusterAdmin, YourStrongPasswordHere) // 为userdb数据库启用分片。这只是允许该库下的集合被分片并不立即分发数据。 sh.enableSharding(userdb)然后选择对userdb.profiles集合进行分片并指定片键Shard Key。片键的选择是分片设计中最关键、最影响性能的一步必须慎重。我们假设profiles集合有一个user_id字段且查询大多基于此字段。// 对集合进行分片片键是user_id字段哈希策略。 sh.shardCollection(userdb.profiles, { user_id: hashed })这里我使用了hashed分片策略。这意味着MongoDB会对user_id的值计算一个哈希值然后根据这个哈希值来决定数据落在哪个分片上。哈希分片的好处是能将数据均匀地分散到各个分片避免热点问题特别适合像user_id这种单调递增或随机的键。缺点是范围查询如user_idbetween 1000 and 2000效率会降低因为相关数据可能分布在所有分片上。另一种策略是范围分片例如sh.shardCollection(userdb.profiles, { user_id: 1 })。数据会根据user_id值的范围连续分布。这有利于范围查询但可能导致数据分布不均新数据都写到最后一个分片形成“热点”。5.2 理解数据块与均衡器MongoDB分片的基本单位是块Chunk。默认情况下一个块的大小是64MB在早期版本是64MB4.4以后默认是128MB。当某个分片上的某个集合的数据量增长导致块的数量超过一定阈值时一个后台进程均衡器Balancer就会开始工作。均衡器会自动将某些块从一个负载较高的分片迁移到负载较低的分片直到所有分片上的块数量大致相等。这个过程是自动的但你也可以手动干预。例如你可以查看块分布use config db.chunks.find({ns: userdb.profiles}).count() // 查看该集合总共有多少块 db.chunks.aggregate([{$match: {ns: userdb.profiles}}, {$group: {_id: $shard, count: {$sum: 1}}}]) // 查看每个分片上有多少块你甚至可以修改块大小谨慎操作use config db.settings.save({ _id: chunksize, value: 32 }) // 将块大小改为32MB更小的块大小意味着更频繁的迁移和更精细的均衡但也会增加元数据开销。更大的块大小则相反。通常不建议修改默认值除非你有非常明确的理由和充分的测试。5.3 插入测试数据并观察分布让我们插入一些测试数据看看分片是否真的起作用了。use userdb // 插入10万条测试数据 for (var i 1; i 100000; i) { db.profiles.insert({ user_id: i, name: User_ i, email: user i example.com, created_at: new Date() }); }插入完成后立即查看数据分布可能数据还在写入的分片上通常是primary shard即启用分片时该数据库所在的那个初始分片。db.profiles.getShardDistribution()这个命令会输出每个分片上该集合的数据大小和文档数量。刚插入完你可能发现数据几乎都在一个分片上。别急这是正常的。均衡器并不是实时运行的。你可以等待一段时间几分钟到几十分钟取决于数据量再次运行该命令。你会看到数据块正在被自动迁移最终三个分片上的数据量和文档数会趋于平衡。你也可以通过sh.status()看到更详细的集群状态包括每个集合的分片信息、块分布和数据库的primary shard。6. 避坑指南与生产环境建议跟着上面的步骤走你应该能成功搭建一个分片集群。但“搭起来”和“用得好”是两回事。下面这些坑都是我或者我的团队真金白银踩出来的希望能帮你绕过去。坑一片键选择不当。这是分片集群最大的“性能杀手”。避免选择低基数字段如性别、状态码作为片键这会导致数据无法有效分散。也尽量避免单调递增的片键如时间戳、自增ID这会导致所有新写入都集中到最后一个分片形成写入热点。理想的片键应该具备高基数、写分布均匀、能匹配大多数查询模式。复合片键如{customer_id: 1, order_date: -1}常常是一个好选择。坑二连接池与mongos部署。你的应用程序应该连接mongos而不是直连mongod。并且一定要在应用端使用连接池。频繁地创建和销毁到mongos的连接开销很大。同时mongos本身是无状态的你应该在应用服务器前端部署多个mongos实例并用负载均衡器如Nginx, HAProxy或DNS轮询来做负载均衡和高可用。不要把所有的压力都放在一个mongos上。坑三监控与备份。分片集群的监控比单机复杂得多。你需要关注每个分片副本集的状态主从延迟、复制状态、每个mongos的连接数和请求队列、配置服务器的负载、均衡器的状态和迁移历史。MongoDB自带的db.currentOp()、db.serverStatus()、sh.status()是基础生产环境强烈建议使用更专业的监控系统如Prometheus Grafana配合MongoDB Exporter。备份也不能再用简单的mongodump了需要考虑集群的一致性快照或者使用基于副本集节点的备份策略。坑四谨慎操作管理命令。在分片集群上执行某些管理命令需要格外小心。例如删除集合db.collection.drop()在分片集群上它会清除所有分片上的数据以及配置服务器上的元数据无法回滚。再比如修改集合的片键是极其困难的几乎需要重建整个集合。任何大的模式变更或数据迁移一定要先在测试环境充分验证。坑五硬件与配置。确保所有服务器特别是同一个副本集的成员之间的网络延迟低且稳定。高延迟会导致复制滞后影响读一致性和故障切换时间。配置服务器的磁盘一定要可靠建议使用SSD因为它的读写性能直接影响集群元数据操作的速度。分片节点的内存要充足确保wiredTigerCacheSizeGB设置合理让热数据尽可能留在内存中。最后记住分片不是银弹。它会引入额外的复杂度包括查询路由开销、跨分片事务的限制在4.2版本后才支持多文档事务但有性能考量、以及运维复杂度的提升。在决定分片之前先问问自己是否已经用尽了所有单机优化的手段比如更合理的索引、读写分离、归档历史数据等。如果答案是肯定的那么欢迎来到分布式数据库的世界虽然挑战更多但它能带来的扩展能力是应对业务增长的强大后盾。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2408291.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!