AI 新纪元:大语言模型的崛起
大语言模型LLM正在重塑我们与计算机交互的方式。本文回顾这一技术革命的历程展望未来趋势。引言2022年11月30日ChatGPT 横空出世两个月内用户突破1亿。这不是一个简单的产品发布而是一个时代的开端。大语言模型从实验室走向大众AI 从象牙塔技术变成人人可用的工具。三年过去了我们正站在转议.cn/images/.(img-YIDjdR5h-177431810675] 扫码二维码加我微信进群聊AI[外链图片转存中…(img-svQGJexg-177431810]欢迎关注的我的公众号《码上未来》一起交流AI前沿技术!![外链图片AI 历史的转折点。让我们一起回顾这段波澜壮阔的历程。一、前 LLM 时代从规则到统计1.1 早期聊天机器人早在1966年MIT 的 Joseph Weizenbaum 创造了 ELIZA——一个模拟心理治疗师的简单程序。它通过模式匹配和模板回复与用户对话用户我很沮丧 ELIZA你为什么感到沮丧 用户我的老板总是批评我 ELIZA你的老板总是批评你这让你有什么感觉这本质上是关键词替换毫无智能可言。但它揭示了一个深刻的事实人类倾向于赋予机器人性。1.2 统计语言模型2000年代统计方法占据主流。n-gram 模型通过计算词序列概率来预测下一个词P(今天|天气) P(香蕉|天气)但这种方法面临严重的数据稀疏问题——训练语料中没有出现的词组合模型就不知所措。1.3 神经语言模型的萌芽2013年Word2Vec 问世。它将词映射到连续向量空间# 经典的词向量类比 king - man woman ≈ queen这是第一次机器理解了词与词之间的语义关系。二、Transformer 革命2.1 Attention Is All You Need2017年Google 发表论文《Attention Is All You Need》提出 Transformer 架构。核心创新是自注意力机制# 简化的注意力计算 Attention(Q, K, V) softmax(QK^T / √d) V这让模型能够并行处理序列不再需要 RNN 的顺序计算捕捉长距离依赖无论多远都能看见灵活关注重要信息动态权重分配2.2 GPT生成式预训练的诞生2018年OpenAI 发布 GPT-1提出生成式预训练范式预训练在海量文本上学习语言规律微调在特定任务上适应参数量1.17亿 训练数据BookCorpus约7000本书2.3 BERT双向理解的突破同年Google 发布 BERT采用双向编码# GPT从左到右 The cat sat on the [MASK] → 预测 MASK # BERT双向上下文 The cat [MASK] on the mat → 预测 MASK同时看到前后BERT 刷新了多项 NLP 基准证明了预训练 微调范式的强大。三、规模法则越大越强3.1 GPT-2规模的力量2019年GPT-2 发布版本参数量小型1.17亿中型3.45亿大型7.62亿超大15亿OpenAI 发现模型越大生成质量越好。这开启了参数军备竞赛。3.2 GPT-3涌现能力的出现2020年GPT-3 横空出世参数量1750亿 训练成本约1200万美元 训练数据TB 文本GPT-3 展现了惊人的涌现能力——小模型不具备、大模型突然出现的能力Fewx-oshrt Leaingn-只需几个示例就能学习新任务Chag% of Thought能进行复杂的推理代码生成能编写简单程序# GPT-D 的 few-B9uwwsSixzAsOvOFohUvNE%253Dpos_idimg-b3.50-17 的效果——因为它用了更多训练数据。四、C7atGPT 时刻RLHF 的魔法1.4 InstructGPT让模型听懂人话2122年初OpenAI 发布 InstructGPT引入RLHF基于人类反馈的强化学习 码 训练流程1. 有调SFT用人类示范数据训练聊AI奖励模型RM训练一个打分器 3. 强化学习PPO用奖励模型优化策略这让模型学会了遵循指令拒绝不恰当请求提供有帮助的回答4.2 ChatGPT现象级产品2022年11月ChatGPT 发布。它与 InstructGPT 技术相近但产品化做得极好简洁的对话界面流畅的多轮交互合理的错误处理持续的模型迭代4.3 GPT-4多模态与推理2023年3月GPT-4 发布能力提升模拟律师考试前10% → 前10名图像理解新增能力上下文长度4K → 32K → 128K推理能力显著提升GPT-4 的具体参数至今未公开据推测约1.8万亿参数。五、百花齐放大模型生态5.1 Claude安全优先的挑战者Anthropic 由前 OpenAI 员工创立主打宪法 AIConstitutional AI# Claude 的核心价值观 values [ 有益无害, 诚实守信, 尊重隐私, 拒绝有害请求 ]Claude 3.5 Sonnet 在编程和推理任务上表现卓越成为许多开发者的首选。5.2 GeminiGoogle 的反击Google 推出 Gemini 系列模型特点Gemini Ultra最强能力Gemini Pro平衡性能Gemini Nano端侧运行Gemini 原生支持多模态能直接处理图像、音频、视频。5.3 开源力量Llama、Mistral、QwenMeta Llama 系列Llama 22023.7商用友好的开源模型Llama 32024.4性能大幅提升Llama 3.12024.7首个开源的 405B 模型Mistral AIMistral 7B小参数高性能Mixtral 8x7B混合专家架构MoE阿里 QwenQwen2.5开源模型中的佼佼者支持中英双语代码能力强六、技术趋势展望6.1 更长的上下文2022: 2K tokens (GPT-3) 2023: 32K tokens (GPT-4) 2024: 1M tokens (Gemini 1.5 Pro) 2025: 10M tokens (部分模型)长上下文带来新可能整本书分析、大型代码库理解、长视频处理。6.2 更强的推理OpenAI o1 系列引入思考链推理在复杂任务上显著提升数学竞赛AIME 正确率 13% → 83%编程竞赛Codeforces 百分位 11% → 89%科学问答GPQA 人类专家水平6.3 更低的成本模型推理成本持续下降202: $0.026 / 1K toke-Ea1Khy4y3PPuFzxv2LaWpZJpaQk%253Dpos_idimg-oLeIqvgG-1774318174872)**参考资料Attention Is All You Need - Transformer 原论文Language Models are Few-Shot Learners - GPT-3 论文Training language models to follow instructions with human feedback - InstructGPT 论文Llama 2: Open Foundation and Fine-Tuned Chat Models点击链接加入群聊【AI人工智能大模型交流QQ群】https://qm.qq.com/q/e9PYTfVW2k欢迎关注的我的公众号《码上未来》一起交流AI前沿技术!扫码二维码加我微信进群聊AI
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2446023.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!