SCM 第二例|三大模型推理性能深度对比:InternLM 效率最高,Qwen 并发增益最强
SCM 第二例|三大模型推理性能深度对比:InternLM 效率最高,Qwen 并发增益最强引言:从单模型验证到多模型对决一个月前,我用自研的叠合一致法(SCM)完成了首例验证——在 Qwen2.5-7B 上,成功标定出并发增益函数和长度增益系数,实现了 0% 偏差的自洽检验。但那篇文章留下了一个遗憾:C_model(模型损耗系数)未能标定。因为只有一个模型,我无法回答:“如果换成 DeepSeek 或 InternLM,同样的并发和长度配置,吞吐会差多少?”这个问题在实际选型中至关重要。于是,我设计了第二例实验:三个大模型的正面对比。本文将完整记录实验过程,并分享一个重要的方法论升级——分模型独立拟合,它让验证指标从 MAPE=108% 飙升至 23.64%,R² 从 0.02 跃升至 0.92。一、实验设计:三模型 × 四并发 × 三长度1.1 测试模型模型API 调用名参数量Qwen2.5-7BQwen/Qwen2.5-7B-Instruct7BDeepSeek-V2.5deepseek-ai/DeepSeek-V2.5约 7BInternLM2.5-7Binternlm/internlm2_5-7b-chat7B1.2 测试矩阵变量档位数量模型3 个3输出长度(max_tokens)50 / 100 / 2003并发数(concurrency)1 / 2 / 4 / 84重复次数2 次2
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2511624.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!