00黄大年茶思屋难题揭榜第19期完整题目+摘要+标签+解题规划+总结
黄大年茶思屋难题揭榜第19期完整题目摘要标签解题规划总结一、本期题目战略需求摘要本次黄大年茶思屋难题揭榜第19期紧扣黄大年先生深耕科研攻关、助力国家科技自主、推动前沿技术产业化落地的核心战略理念聚焦AI大模型训练与推理全流程性能优化、轻量化部署、超大规模模型落地应用三大核心方向精准对标国家算力自主可控、AI技术普惠化、大模型产业落地的战略需求。旨在攻克昇腾硬件生态下AI模型训练冗余、数据受限场景下模型压缩难、千亿级MoE大模型规模化落地瓶颈等行业核心技术难题补齐国产AI算力平台算法适配短板推动大模型从云端训练走向边缘端、端侧高效部署实现AI技术与国产硬件深度融合助力国家人工智能产业自主化、高效化、规模化发展践行黄大年先生科技报国、攻克关键核心技术的战略追求。二、黄大年茶思屋难题揭榜第19期完整题目难题一硬件亲和的去计算冗余的训练加速算法研究背景模型训练是AI计算的主流场景提升模型训练性能可缩短模型训练总耗时减少训练成本。训练性能的提升一般分为优化器算法优化、并行加速算法本课题希望从减少单步计算时间方向征集一种训练加速算法可以与其他优化手段叠加加速效果。去计算冗余直接提升训练性能该类算法可自动识别模型的冗余信息在前后向计算过程中能够选择性地对参数进行计算和更新可极大减少计算量取得较好的加速效果。但是算法需要解决如何自动识别冗余参数、减少额外开销、不影响训练收敛等问题并实现硬件亲和挑战很大。技术挑战业界已有的工作主要有剪枝、参数选择更新等方式在升腾上加速效果有限原因是这些算法会引入一些昇腾不亲和的计算。目前面临的技术挑战主要包括硬件亲和不同的硬件对不同的算子的运行性能有差异算法设计需要考虑引入的算子在硬件上的执行效率问题通用性算法需要支持常见的CNN/RNN/Transformer类模型。技术诉求选项一提供一种通用的硬件亲和的去除计算冗余的训练加速算法方案具备以下特性理论论证算法方案在典型CV/NLP模型ResNet50/Yolov5/Bert上能够最低减少训练端到端前向反向参数更新40%的计算量不改变网络结构证明收敛速度不低于基线算法方案使用昇腾亲和算子如矩阵相乘相关Op出题方可提供算子列表不引入排序、阈值判断等昇腾不亲和算子算法方案包含自适应冗余信息识别及精度补偿的模块适用典型CV/NLP模型训练场景。选项二在选项一的基础上提供去计算冗余的训练加速算法的设计和实现可直接在华为昇腾平台上验证昇腾Atlas 800T A2/A3服务器上典型CV/NLP模型训练TTA缩短40%验收模型为ResNet50/Yolov5/Bert支持扩展到Transformer类大模型验收模型为LLaMA2-7B验收环境为4台Atlas 800T A2/A3服务器。难题二Data-free/Label-free模型压缩算法研究背景场景需求针对轻量化推理部署如实时安防监控用户使用平台提供的模型压缩服务的时候出于数据安全考虑仅提供预训练模型及少量无标注数据需要在这种场景下实现Data-free/Label-free的模型压缩以达到用户期望的精度和性能要求。技术现状训练后压缩算法典型代表为PTQ可基于少量无标注数据集Label-free甚至无数据Data-free方式实现。一方面PTQ量化精度损失需要更有效控制以满足更少数据量、更低比特量化的使用另一方面除PTQ以外其他压缩算法如剪枝较难达成有效压缩需探索新算法设计。技术价值有效的Data-free/Label-free训练后模型压缩算法可保证低量化精度损失同时极大提升量化应用的易用性。目前技术问题精度挑战Data-free/Label-free训练后模型压缩分为生成式与非生成式方法在高压缩比条件下两种方法都会带来较大的精度损失例如4-bit量化、剪枝超过50%等。训练后压缩问题当业界训练后压缩方案主要是8-bit PTQ量化压缩比为3x~4x且部分轻量化场景的精度损失超过0.5%。一方面需增强PTQ量化效果并探索更低比特量化的可行方案如4-bit量化另一方面需探索诸如稀疏、剪枝等其他压缩算法并确保这些算法能与PTQ量化叠加使用以达成更高压缩比与推理性能。技术诉求选项一提供一种Data-free/Label-free的训练后模型压缩技术方案允许设计一种或叠加多种压缩算法如PTQ、训练后剪枝/稀疏等理论论证技术方案在典型CV模型例如ResNet50/Yolov5-m上执行任务例如ImageNet/COCO2017能够实现至少平均4.5x压缩在NLP模型例如BERT-base上执行任务例如GLUE MRPC/GLUE SST2/5QuanD1v1能够实现至少平均4.5x压缩Label-free方案的样本量为300精度损失0.5%Data-free方案的精度损失1%确保昇腾亲和的软硬件实现要求方案新设计的算子符合昇腾亲和算子的定义出题方可提供。选项二提供Data-free/Label-free的训练后模型压缩技术方案及其完整实现可在华为昇腾Atlas 300 DUO平台上实现并进行算法验证指标要求与选项一相同并且压缩后模型的端到端推理性能相比原模型提升30%以上。难题三挑战千亿规模MoE类大模型泛化过程中的万倍压缩研究背景需求背景预训练大模型Foundation Model扮演着知识引擎Knowledge Engine的角色当泛化到特定的下游任务时需要抽取出对应的知识并结合压缩蒸馏算法支持来满足下游任务对计算资源和推理时间的需求。目前业界的模型压缩和蒸馏框架均针对亿级及以下规模的模型通过单个或多个算法组合达到压缩10~100倍的效果暂无可压缩万倍及以上的框架或者范式。千亿级以上MoE类大模型的压缩算法暂无成熟方案。技术价值首发千亿级以上MoE大模型的万倍压缩算法有助于昇腾AI计算中心训练大模型成果落地到边缘端和端侧客户实现大模型产业闭环提升昇腾生态影响力。技术挑战策略组合探索目前针对大模型的压缩主要采用结构优化如矩阵分解、权值共享、分组卷积、分解卷积等、量化伪量化及聚类、定点化、模型剪枝、模型蒸馏等多种策略的组合。针对稀疏大模型和具体的下游任务无法自适应地选择一组最优的压缩算法策略达到压缩率和精度的最优。泛化性不足目前主流压缩算法主要针对Transformer架构有效针对TransformerMoE融合架构的千亿稀疏大模型暂未得到验证。技术诉求提供一种针对特定千亿级以上MoE类大模型的万倍压缩算法要求满足如下条件对紫东太初文音三模态大模型512出题方提供预训练模型与下游任务数据和神农蛋白质大模型128出题方提供预训练模型与下游任务数据均实现万倍以上的压缩。紫东太初文音三模态大模型和 蛋白质二级结构预测 大模型压缩后分别执行多模态检索单边压缩只压缩Query分支和 蛋白质二级结构预测 下游任务使用单卡昇腾Atlas 300T进行推理推理在下游任务上精度损失均不超过千分之三。三、约束条件、边界与不足一约束条件所有算法方案必须适配华为昇腾硬件平台严格使用昇腾亲和算子禁止引入昇腾不兼容算子算法需满足明确的性能、压缩比、精度损失量化指标无理论论证与实际验证的方案无效模型优化需兼顾通用性覆盖CV、NLP、大模型等主流AI模型架构不可仅针对单一模型方案需区分理论设计与工程实现两类诉求需分别满足对应验收标准不可混淆千亿MoE大模型压缩需限定指定模型紫东太初、神农蛋白质大模型与推理硬件不可偏离指定场景。二边界技术边界仅聚焦AI模型训练加速、训练后模型压缩、大模型轻量化压缩领域不涉及模型训练框架底层重构、全新硬件芯片设计场景边界仅限昇腾硬件平台部署不兼容其他非国产算力硬件聚焦云端训练、边缘/端侧推理落地场景指标边界所有技术指标均为硬性门槛需完全达标精度损失、压缩比、性能提升比例不可低于要求阈值模型边界针对题目指定的ResNet50、BERT、LLaMA2-7B、紫东太初、神农蛋白质大模型等不拓展至其他未提及模型。三现有不足现有行业算法与昇腾硬件适配性差冗余计算优化算法易引入不兼容算子硬件亲和性不足低数据/无数据场景下模型压缩精度损失控制难度大高压缩比与高精度难以兼顾缺乏针对千亿级MoE大模型的专用压缩范式现有算法压缩倍数有限泛化能力薄弱算法通用性有待提升难以同时适配多类型AI模型工程化落地验证流程不完善大模型压缩后单卡推理部署难度大算力资源消耗与模型性能的平衡方案缺失。四、核心标签#昇腾AI算力优化 #AI模型训练加速 #无数据模型压缩 #大模型轻量化部署 #MoE大模型万倍压缩 #国产算力技术攻关 #AI模型冗余计算优化 #训练后量化剪枝 #科技自主可控 #黄大年茶思屋科研攻关五、后续解题规划针对本期黄大年茶思屋第19期三大核心难题后续将通过三篇专题解题方案逐一攻克对应技术难题第一篇聚焦硬件亲和去计算冗余训练加速算法破解昇腾平台训练性能瓶颈第二篇主攻Data-free/Label-free模型压缩技术实现数据安全场景下模型高效轻量化第三篇攻坚千亿级MoE大模型万倍压缩难题完成超大规模大模型端侧落地技术突破最终形成完整的解题闭环全面满足本期题目所有技术诉求与战略需求。六、全文总结本期黄大年茶思屋第19期难题紧扣国家AI产业自主化发展战略传承黄大年先生科技报国的科研精神聚焦国产昇腾算力平台下AI模型全流程优化核心痛点设置训练加速、轻量化压缩、超大规模大模型落地三大技术课题兼具理论研究价值与工程落地意义。题目明确了严苛的技术指标、硬件适配约束与场景边界同时直指当前行业内硬件适配差、精度与压缩比失衡、大模型压缩无成熟方案等核心不足。后续将通过三篇专项解题方案逐一突破各项技术壁垒既解决本期科研难题也进一步完善国产AI算力生态算法体系推动关键核心技术自主创新践行科技强国、科研报国的核心目标让前沿AI技术真正实现产业化、普惠化落地。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2554903.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!