从精确到共识
从精确到共识2026-04-14一数据库系统诞生至今的半个多世纪里“精确”一直是它不可动摇的基石。关系代数、ACID事务、范式理论——所有这些核心概念都建立在一个共同的假设之上查询的结果必须是确定的、可重复的、绝对正确的。当你询问“账户余额是多少”系统必须返回那个唯一的数字不多不少不偏不倚。这种对精确的执着成就了现代信息社会的根基。然而现实世界似乎并不那么执着于精确。走进任何一家小店你会发现一个耐人寻味的现象抹零。102.3元的账单商家说“收您102元”顾客点头同意交易完成。从数学上看这是一个0.29%的误差。但从社会共识的角度看这是一个完美的交易——双方都得到了自己真正在乎的东西商家赢得了善意和回头客顾客获得了便利和小小的满足感。没有人会为了那三毛钱去打官司。这个日常现象揭示了一个被我们长期忽视的真相精确从来不是人类社会运作的唯一基础甚至不是最主要的基础。我们约在“三点左右”见面而不是“15:03:22”我们支付“大约15%”的小费而不是精确计算的15.345元陪审团依据“排除合理怀疑”定罪这是一个概率标准而非绝对确定。法律、商业、社交——人类社会的绝大多数共识都是建立在“足够好”而非“绝对精确”之上的。二这种张力在Michael Stonebraker相隔二十年的两篇综述论文中得到了某种呼应。2005年的《What Goes Around Comes Around》讲述了一个关于“代数思维”如何统治数据库世界的故事。关系模型用离散的、确定性的操作——选择、投影、连接——构建了一个严密的逻辑体系。在这个体系里每个查询都被翻译成一颗确定性的表达式树每个操作都产出精确的结果。对象数据库、层次数据库、网络数据库——所有挑战者最终都被拉回了关系代数的轨道。这是“精确”的胜利。2024年的续篇《What Goes Around Comes Around… And Around…》则悄然承认了一个新的现实。Andrew Pavlo和Stonebraker不得不面对过去二十年最大的变数机器学习。向量数据库、嵌入检索、相似度搜索——这些新来者不再追求精确匹配而是寻找“语义上最相似”的结果。输入“狗”的向量返回的可能是“犬科动物”。这不是精确这是统计这不是代数这是几何。在高维空间中系统不再寻找一个点而是寻找一个区域不再断言“这是唯一正确的答案”而是声称“这些是Top-K个最相关的候选”。两篇论文之间一个根本性的范式转移正在发生从“强因果链”到“弱关联链”的迁移。传统数据库的查询是一条强因果链WHERE id 5→ 返回第5行。这是演绎推理前提真则结论必真。而LLM时代的数据访问是一条弱关联链用户的自然语言查询 → 转化为嵌入向量 → 在高维空间中寻找邻近点 → 返回语义相似的结果。这是归纳推理基于统计关联而非逻辑必然。每一个环节都是概率性的没有绝对的“正确”只有置信度的高低。三这听起来像是一种退化。毕竟“概率正确”听起来总不如“绝对正确”来得可靠。但抹零的例子提醒我们精确是有成本的而成本本身就是一种约束。精确需要全量扫描、需要强一致性锁、需要严格的审计日志。当数据量达到EB级别当查询延迟要求降到毫秒级当计算成本成为不可忽视的因素“精确”开始暴露出它的另一面昂贵、缓慢、僵化。相反近似查询处理、采样计算、概率数据结构——这些“弱关联”技术可以用百分之一的成本换取百分之九十九的准确率。对于绝大多数应用场景这个交换是划算的。更重要的是LLM的崛起正在改变“查询”本身的定义。传统查询是精确指令SELECT name FROM users WHERE age 18。但未来的查询将更多是模糊意图“找出可能对数据库未来感兴趣的人”。这个意图无法被翻译成精确的SQL它需要被分解为多个弱关联链职位与“技术决策者”的语义相似度、行业与“科技创新”的嵌入距离、最近活动的时间衰减权重。这些链各自贡献一部分置信度最终加权求和排序输出。这不是一个查询而是一个可接受性判断。系统不再问“哪些记录满足条件”而是问“哪些记录有足够高的概率符合用户的意图”。两者的区别就像“102.3元”和“102元”的区别——前者是数学真理后者是社会共识。四如果这个判断成立那么未来的数据库系统需要回答一个根本性的新问题什么是“正确”在传统框架下答案很简单查询结果必须等于某个数学定义下的精确值。但在弱关联链的世界里这个定义失效了。当系统返回一个94%置信度的结果时你无法通过单次验证来判断它是否“正确”——因为94%置信度的含义恰恰是在100次类似的查询中大约有94次是对的。这是一个统计陈述而非逻辑断言。这引出了一个更深层的挑战概率结果可以被审计吗回到抹零的例子。审计人员不会去验证102.3是否等于102他们会验证商家是否遵守了“舍去角分”的规则。换句话说审计的对象不是结果的数学精确性而是过程的一致性。同样对于未来的概率数据库审计可能不再是验证“结果对不对”而是验证“系统是否按照声明的概率模型执行了操作”——是否使用了正确的采样方法、是否准确报告了置信度、是否在用户允许的误差阈值内。这要求系统具备一种新的能力可解释的置信度。不是简单地说“置信度94%”而是说“这个结论基于以下三条证据A的相似度为0.85B的共现概率为0.72C的时间衰减权重为0.6综合模型为加权乘积最终置信度为0.94其中A贡献了40%的置信度”。用户可以不接受这个结论但至少可以理解它为什么得出这个结论并决定是否信任它。这正是“可接受”与“可解释”的分野。可解释是技术属性你能打开黑箱看到因果链。可接受是社会属性在权衡了成本、风险、便利和信任之后你愿意把这个结论当作行动的依据。抹零被接受不是因为它在数学上精确而是因为它在社会上是可预期的、公平的、便利的。五那么未来的数据库系统会变成什么样我的判断是不会出现“纯概率数据库”取代“精确数据库”的戏剧性革命而会出现一个分层的、混合的架构。内核继续运行强因果链处理那些必须精确的事务——银行转账、库存核验、法律合规。外围则包裹一层处理弱关联链的“软壳”用于那些可以接受近似的场景——推荐、搜索、异常检测、趋势分析。两者之间有一个清晰的误差预算机制用户声明“我允许0.5%的误差”系统在这个约束下选择最优的执行策略可以是精确计算也可以是采样近似也可以是两者的混合。这个架构已经在孕育之中。向量索引作为传统数据库的扩展插件、近似查询处理进入商业数仓、LLM被用于查询优化和自然语言接口——这些都是“弱关联链”从边缘渗透进核心的迹象。Stonebraker的“兜兜转转”可能会进入新的一环关系代数吸收了向量、概率和相似度语义就像它当年吸收了XML和对象一样。但这一次吸收的不仅是数据类型更是一种思维方式。数据库不再只是“记录系统”它正在成为“认知系统”。记录系统回答“是什么”认知系统回答“像什么”、“可能是什么”、“值得关注的是什么”。前者需要精确后者需要共识。六回到抹零的那个小店。商家和顾客都没有精确计算他们达成了一个“足够好”的共识。这个共识之所以成立是因为双方都认可那个隐形的规则——零头舍去善意留存。没有合同没有审计没有强制。这是人类社会的运作方式精确是工具共识是目的。数据库系统正在经历一场类似的觉醒。半个世纪的精确崇拜正在让位于一种更务实、更灵活、更接近人类认知方式的数据处理范式。这不是技术的倒退而是技术的成熟——从追求数学上的绝对真理转向服务于人类的实际决策。LLM带来的不是精确性的丧失而是精确性定义的拓宽。未来的数据库可能会这样回答一个查询“根据您允许的误差范围和当前可用的计算资源我给出了以下结果。置信度92%主要影响因素是A和B。您可以选择接受也可以要求更精确的计算但需要等待3秒钟并消耗双倍资源。”这不是一个完美的答案但这是一个可接受的答案。而可接受最终比精确更重要。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2518280.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!