大模型应用落地:新手/程序员必备五类关键技术选型指南(收藏版)

news2026/4/4 16:06:11
大模型应用落地新手/程序员必备五类关键技术选型指南收藏版本文从产品经理视角出发详细介绍了大模型应用落地的五类关键技术Prompt、RAG、Workflow、Agent、模型微调及其适用场景。强调技术选型应遵循如无必要勿增实体原则从用户实际场景出发平衡成本、效率和体验。Prompt适合轻量任务RAG需答案可追溯Workflow适合多步骤协作Agent能自主规划执行微调则针对高频固定任务。技术选型应基于问题类型选择最合适而非最先进的技术方案。大模型应用落地时的技术选型在产品经理视角实现AI应用落地如何做好AI技术选型非常很重要产品实现最终还是需从用户实际场景出发去平衡成本、效率和体验。最牛的技术不一定能兼容所有场景按OpenAI对AGI的五层分类 Chatbot、Reasoner、Agent、Innovator、Organization。当前像Cursor、Manus这类Agent企业是先进生产力代表了但也不适合用Agent去解决所有问题。产品设计界一句老话 “如无必要勿增实体”在AI应用领域同样适用。在落地AI应用过程中常使用到Prompt、RAG、Workflow、Agent 、模型微调五类关键技术这五类技术分别适用于不同的场景在选型过程中可以根据技术特性去执行落地。先说结论怎么选用“问题类型”来对号入座只要“写得像样就行”广告文案、新闻摘要→ 先用 Prompt。加上输出格式校验够用且快。“必须说对事实”且依赖内部资料产品政策、合规口径→ 用 RAG让答案有引用可追溯。“一步做不完需要审校/回退/多人协作”合同审核、报表发布→ 上 Workflow把节点明文化。“要自己会想、会找、会串API”拉数→分析→生成方案→建工单→ 试受限型 Agent明确边界与停止条件。“高频固定任务要又稳又省”品牌风格文案、结构化抽取→ 在已有闭环基础上做 SFT 微调。一、Prompt快速起步与可观测的提示工程作用定义模型角色、任务目标、输入输出格式与约束是最轻量的“产品功能”实现方式。Prompt像一张写作提纲适合不需要特定知识、逻辑链条较短的创造性或归纳性任务。价值 零训练成本、即时生效、灵活性极高。缺点容易产生幻觉胡编乱造且无法处理多步骤复杂问题。例子活动文案、邮件改写、接口调用草案自然语言→JSON。1、如何用好它一份好的提示词框架可以包含以下六要素1角色 (Role)2任务 (Task)3背景/上下文 (Context)4要求/约束 (Constraints)5范例 (Example) (可选但强烈推荐)6目标/风格 (Goal/Style)一个糟糕的提示词“写一篇关于健康的文章。”运用模板后的优秀提示词【角色】 你是一位经验丰富的健康营养师。【任务】 撰写一篇科普短文【背景】 向30-40岁的办公室白领介绍如何通过调整饮食来缓解久坐带来的健康问题。【要求/约束】 文章需要包含3个具体的饮食建议每个建议配一个简单的食谱例子。文章风格要轻松易懂避免使用难懂的医学术语。字数在600字左右以Markdown格式输出包含标题和小标题。【范例】 例如第一个建议可以是“增加膳食纤维摄入”食谱例子是“一份燕麦莓果早餐杯”。【目标】 目的是让读者感到实用和可行并愿意立即尝试。提示词撰写进阶1分步思维 (Chain-of-Thought)对于复杂任务要求AI分步进行。示例“请按以下步骤解决这个问题首先分析用户需求其次列出可能的产品最后给出你的推荐并解释理由。”2自我验证要求AI对自己输出的内容进行审查和修正。示例“输出完成后请以批判性的视角检查一遍内容看是否有事实性错误或逻辑矛盾并列出可能的改进点。”3提供外部信息如果问题涉及特定文本直接粘贴进来。示例“请基于以下会议记录【粘贴记录内容】生成一份行动计划清单。”4迭代优化AI的输出不完美时不要重新提问而是在原对话基础上给出修改指令。示例“很好但第二个观点可以再深入一些并提供数据支撑。” 或者 “能不能让语气更正式一点”2、参数调整在使用提示词构建产品时除了把user prompt写好之外还可以通过调整模型输入项及参数去达到预期效果。可重点关注system_prompt: 系统提示词定义模型的行为和角色user_prompt: 用户提示词模型需要回答的问题temperature: 控制输出的随机性值越高越随机top_p: 控制采样范围值越小越聚焦3、场景实践探索3.1、文本纠错以将大模型应用在文本纠错场景为例让模型找到错别字但文章一长模型输出时就会随机发散这时候调整模型的temperature和top_p就会起到很好的效果。以下图为例模型1设置temperature 0.1 控制输出的随机性值越高越随机top_p 0.1 控制采样范围值越小越聚焦模型2设置默认值temperature 0.1 控制输出的随机性值越高越随机top_p 0.1 控制采样范围值越小越聚焦结果对比模型1 temperature 0.1 控制输出的随机性值越高越随机top_p 0.1 控制采样范围值越小越聚焦在执行纠错任务时更加聚焦更稳定且准确。案例一左侧为模型1右侧为模型23.2、文本总结和格式调整以此前定制的总结行业信息并进行格式调整为例为了尽量保证文章信息不失真以及收集到的多篇文章内容一起综合排版文字内容不能不能由大模型随意发挥在此前提下可以将大模型的TOP-P和temperature数值调低减少偏离原文的情况出现。这里可以扩展到很多场景如果输入的信息源足够可靠又依赖大模型去生成的情况下都应调低大模型生成的数值这样才会更加贴近原文减少因为模型随机性造成篡改的情况。案例一文本摘要生成应用案例二格式排版生成应用4、top_p和temperature是如何工作的大模型在执行生成任务时top_p 和 temperature 是最重要的两个参数他决定了大模型的“创造力”和“确定性”。大模型在生成每一个下一个词token时并不是只输出一个答案而是会计算一个概率分布即所有可能的词及其对应的出现概率。例如在句子 “The cat sat on the ___” 之后模型可能会给出如下概率mat: 0.35floor: 0.25couch: 0.15bed: 0.1tree: 0.05banana: 0.04… (成千上万个其他词)temperature 和 top_p 的作用就是在这个概率分布的基础上决定最终选择哪个词作为输出。4.1、Top-p (核采样)简单理解 他决定入围下一个词的范围池子有多大由 TOP-P 决定。p 代表概率累计和的一个阈值。工作原理模型会从概率最高的词开始将它们的概率依次累加。当累计概率刚刚超过设定的 top_p 阈值时就停止。然后从这些被选中的词中根据它们的概率权重随机选择一个输出。举例假设 top_p 0.8还是上面的例子mat (0.35) - 累计 0.35floor (0.25) - 累计 0.60 (仍然 0.8)couch (0.15) - 累计 0.75 (仍然 0.8)bed (0.1) - 累计 0.85 (已经 0.8停止)低 top_p (e.g., 0.1 - 0.5): 候选词池非常小只包含极少数最可能的词。输出非常集中和确定。高 top_p (e.g., 0.8 - 1.0): 候选词池很大当设为1.0时等同于考虑所有词。输出更多样化。适用场景当你希望排除那些明显不合理概率极低的选项同时又想在合理的范围内保留一定的随机性时top-p 是一个非常有效的方法。它比单纯的 temperature 更能智能地限制选择范围。4.2、Temperature (温度)简单理解它决定了模型在选择下一个词时是更倾向于选择高概率的“安全”词还是冒险选择低概率的“惊喜”词。工作原理低温度 (eg0.1 - 0.5): 会锐化原始的概率分布。高概率的词变得更高低概率的词变得更低。模型会变得非常保守和确定输出内容高度一致、可预测、 factual基于事实。适用场景 事实问答、代码生成、数据提取、技术文档撰写——任何需要高度准确性和一致性的任务。高温度 (eg0.8 - 1.5): 会平滑原始的概率分布。降低高概率词的优势提高低概率词的机会。模型会变得更有“创造力”和“随机性”。适用场景 创意写作、诗歌生成、故事构思、角色对话、头脑风暴——需要多样性和惊喜的任务。4.3、最终效果低 Top_p 低 Temperature 极度确定、保守、缺乏变化。高 Top_p 低 Temperature 最终效果稳定且略有变化的合理输出。低 Top_p 高 Temperature 这是一个非常矛盾且有冲突的设置通常应避免使用。高 Top_p 高 Temperature 最终效果天马行空、极具创意且极其不稳定。在使用Prompt构建产品时可以根据实际场景选择参数输入达到预期效果。二、RAG让模型“读懂你的业务”作用通过检索增强将私有知识注入模型解决大模型“训练数据缺乏、幻觉、垂直领域专业知识缺乏”等问题。适合问题必须“答得准、可追溯”。例子客服知识问答、内部政策问答、合规检索、研发知识库助手等。如果基座模型能支持的足够大的token数或领域沉淀的知识不多的情况下不需要用到RAG直接将上下文和用户Query一起送给大模型生成就行。当你的场景适合RAG也不要期待它能解决你所有的问题RAG只是在你与大模型对话时从海量领域数据里找到一些相关信息补充到上下文中仅此而已。不能解决的问题还很多比如异形数据结构化问题知识切片后上下文断层问题需多步推理才能解决的复杂问题等。这些都会影响内容生成质量。1、如何用好它RAG核心的功能就是针对用户Query在送给大模型的前置环节在知识库中检索最相关的信息作为补充上下文一起送给模型去做回答。在校验RAG系统效果时可以在两个维度上做要求召回率能够找到最相关的信息准确率不相关的信息不要RAG技术以及针对实际业务场景的设计主要就是锚定这两个维度指标的提升去的。但实践中期望两个指标都非常高不太现实因为RAG是一套非常复杂的系统每一个环节的问题都会影响最终的结果。很多时候只能取个相对合适相对平衡的值。如果你的业务采用了RAG这又需要回到产品经理要如何做选择去平衡成本、效率和体验的问题了。用好RAG还是要回归到流程中的每一个节点针对业务场景不断优化核心流程。以下是最重要的关键节点数据解析、文本切片、 文本向量化建立索引、Embedding、检索、Reranking、生成。1.1、文本解析与信息结构化原始数据的质量直接决定RAG问答效果的上限。非结构化数据需要转化为富含语义的结构化信息。这个节点非常重要以下是一些知识解析实践后的方法总结使用专业解析库能有效保留文本格式、表格和布局信息。对于扫描件或手写体等非标准文本需结合OCR技术或视觉大模型优化信息提取。表格数据的结构化处理格式转换将表格转为Markdown或HTML格式确保数据结构清晰。连续性保障避免切片导致的上下文断裂对空白单元格填充默认值拆分合并单元格以保持逻辑完整。语义强化将表头与主体内容映射为键值对KV提升模型理解能力。当前仍存在跨页表格合并困难、异形表格表头识别不准等问题很难做到通用一套方案解决所有问题需结合人工校验或针对特定规则补充。此前与腾讯云团队交流他们也是对特定一类格式的表格如金融行业中财报结合算法去优化。以下是一些在解析环节可尝试的进阶方案元数据提取与实体增强元数据提取通过模型自动捕获文档的创建时间、作者、章节等信息作为检索阶段的辅助依据。实体抽取关联利用NER技术识别关键实体如人名、地点并建立知识图谱关联丰富语义表示。这些是RAG系统高效运作的基础只有精准的结构化数据才能支撑后续的检索与生成质量。1.2、文本切片RAG上传的文本需切割为语义连贯的片段chunk平衡检索效率与上下文完整性。选择合适的方法切片是为了将chunk送给大模型生成时的信息时完整不包含噪声的没有最好的方法需根据自身业务场景和数据结构去判断用哪种切片方法。主流方法对比除了上述切片方法之外RAG还会面临表格数据多模态数据图、视频、音频等。如何将这类数据解析并采用合适的方式将信息切分成不同chunk也非常重要。1.3、向量索引构建文本向量化的质量与索引构建决定了检索效果的天花板其目的是将文本切片转换为数值向量嵌入并建立高效的数据结构索引以实现快速相似性搜索。在索引构建环节可以需与检索环节一起来看是采用语义检索还是混合检索。此外可以在建立索引时增强可以增加一些文本内容优化检索效果。语义增强就是将chunk和该chunk所在的文档内容这里是整片论文传给LLM让LLM结合整个文档对这段chunk作个概述然后把这个概述的信息append到chunk的内容中从而增强在后续进行语义检索时的精确性。1.4、检索在建立索引时就应该做好数据库及技术选型混合检索能兼顾语义和关键词精确匹配。如果当前场景的检索需要兼顾关键词和语义的时候可以考虑混合搜索需要结合文档内容、chunking和关键字词构建等环节相对于关键字词匹配检索混合搜索可以降低查询编写的规范性不一定要有特定的关键词出现以及提升查询的容错性可能会有拼写错误或者不恰当的描述相对于语义相似检索混合搜索可以增加一些领域专有信息的更精准匹配提升检索结果的准确性。检索查询问法优化在检索环节除了根据业务场景选取语义检索或混合检索之外还可以通过业务流程上的优化提高检索召回率和召回准确率。1、查询扩展为原始查询添加同义词近义词上位词如建立领域知识词库在查询时做替换提高检索查询准确率。2、问题改写让LLM将简短、模糊或不完整的查询重写为更全面、详细的形式。在多轮会话时这一步更重要需要根据上下文信息让模型改写生成新的完整准确的问题。### Query改写任务prompt **任务目标** 将用户输入的原始query改写为更完整、清晰的句子需完成以下操作 1. **指代消解**将代词如它、这个、那里替换为具体指代对象 2. **成分补全**补充缺失的主语/谓语/宾语等关键成分 3. **保持原意**确保改写后的句子与原句语义一致 4。**严格控制改写**如果用户输入的query中不含有代词也不缺失 关键成分禁止随意对成分进行补全 **输入格式** ​原句[用户输入的原始query] 上下文[对话历史或前文可选] **输出格式** ​改写句[完成指代消解和成分补全的句子] 拼接tag[need_context/no_context] ​**示例说明** - **示例1**需指代消解成分补全 原句它需要充电 上下文用户之前提到我的手机电量不足 改写句手机需要充电 拼接tagno_context - **示例2**成分缺失 原句正在下载 上下文用户之前说我在浏览器里 改写句浏览器正在下载文件 拼接tagneed_context - **示例3**无需修改 原句明天下午三点的会议取消了 上下文无 改写句明天下午三点的会议取消了 拼接tagno_context **输出规则** 1. **拼接tag判断** - 若改写需依赖上下文信息如补充主语标记为need_context - 若改写仅通过单句即可完成标记为no_context 2. 确保改写后的句子是**完整的独立句**无成分缺失或指代不明。3、子查询生成对于复杂、多方面的复合查询将其分解成多个独立的子查询分别检索后再合并结果。但实践下来开源大模型扩写子查询效果不太好有该场景诉求建议使用微调的小模型扩写的子查询任务会更聚焦。4、元数据过滤切片小节处有提到切片环节抽取元数据作为检索依据在检索前或检索后利用文档的元数据如创建日期、作者、类别、来源对结果进行过滤。它通过排除大量不相关文档很大程度提升了召回准确率去除了文档噪声。1.5、重排重排是将改写后的问题和每个召回的chunk单独汇总后Rerank模型重新计算一个分数再从高到低排序选出前KTOP-K的chunk再送给大模型生成。一般检索环节数量会大于等于rerank环节chunk数。这样能用较低的代价提升Top N结果的精度和召回质量。RAG简单说就是向量检索、重排、生成但如果想要做好这套系统需要关注流程每个非常多的细节根据自身业务特点从数据环节开始设计逐步提升每个环节的召回率和准确率这样才能让你的RAG系统不至于成为一个玩具。2、场景实践探索在落地RAG应用时会觉得这个过程像是个黑盒有一份适合业务场景的评测数据集非常重要在后续迭代验证时能够多次使用可以用心准备。RAG系统在数据解析、文本切片、 文本向量化建立索引、Embedding、检索、Reranking、生成环节中每个细节的调整都会影响系统的召回率和准确率最终影响模型生成答案的质量。当用户提问经过RAG系统最终送给大模型时的文本结构可能包括system promptchat history如有多轮召回重排后的chunkuser query还有送给大模型的参数当然如ChatDoc页面端也支持一些参数提供给用户配置。2.1、RAG应用到意图识别的尝试上文说到RAG是一套非常复杂的系统从数据解析、文本切片、 文本向量化建立索引、Embedding、检索、Reranking每个环节都值值得深入研究其实把RAG拆开来看如检索环节也可以将能力复用到其他场景中比如“意图识别”根据用户query匹配预先配置的问题库比对语义相似度去识别用户意图再执行后续流程下图是一个RAG系统结合意图识别的案例流程。三、Workflow与Agent1、Workflow与Agent的定义和区别“Agent”有多种定义方式。有人将其视为完全自主系统能在较长时间内独立运行使用各种工具完成复杂任务。也有人用来描述更固定的、预定义的工作流。Anthropic将这些变体归类为类Agent系统但在工作流和智能体间做了重要区分。总的来说Workflow 本质上是一套预定义的固定流程类似于工厂中的流水线。每个步骤都具有明确的输入与输出节点之间的逻辑严格按预定规则执行——一旦条件满足便自动进入下一阶段。Agent 的运行方式不是在预定轨道上推进而是在开放环境中主动探索“如何实现目标”。一个典型的 Agent 应具备以下三大核心能力感知环境理解输入内容与任务要求规划路径动态生成任务链而非依赖事先编写的固定流程执行行动调用工具完成子任务并可根据反馈实时调整策略。二者对比如下图概念描述还比较抽象有几张执行流程图就能理解区别了。2、一个简单的ReAct Agent流程核心就是“思考(Thought) - 行动(Action) - 观察(Observation)”的循环用伪代码表示一段React agent核心代码可以分为几段1、定义模型可自主调用的工具tools。2、system prompt中描述清楚任务规则和约束条件。publicclassReActAgent { privatestaticfinalStringAGENT_ACTION_TEMPLATE工具名称必须是[{0}]中的一个; privatestaticfinal ListTool TOOLS Arrays.asList( // 工具1查询补货计划单详情 Tool.builder() .name(查询补货计划单详情) .desc(根据补货计划单号查询补货计划单详情) .parameters(Collections.singletonList( Tool.Parameter.builder() .name(orderCode) .desc(补货计划单号) .type(string) .required(true) .build() )) .build(), // 工具2审批补货计划单 Tool.builder() .name(审批补货计划单) .desc(根据补货计划单号审批补货计划单) .parameters(Collections.singletonList( Tool.Parameter.builder() .name(orderCode) .desc(补货计划单号) .type(string) .required(true) .build() )) .build() );3、模型在上述定义的规则中循环知道任务执行完成。public static void main(String[] args) { if (args.length ! 1) { System.out.println(ak未配置结束!); return; } // LLM的AK注意不要泄露不要泄露不要泄露 String ak args[0]; // 创建 Scanner 对象用于接收用户输入 Scanner scanner new Scanner(System.in); // 多轮会话的记忆 Memory memory new Memory(); System.out.println(请提问开始和AI的对话吧); // 循环逻辑 while (true) { // 接收用户输入 String input scanner.nextLine(); System.out.println(用户输入 input); // 判断是否满足退出条件 if (exit.equalsIgnoreCase(input)) { System.out.println(检测到退出指令对话结束); break; // 满足条件时退出循环 } // reAct StringBuilder latestInput new StringBuilder(input); String output reAct(ak, memory, latestInput); System.out.println(AI输出: output); memory.add(new Memory.ChatMsg(Memory.ChatMsg.USER, input)); memory.add(new Memory.ChatMsg(Memory.ChatMsg.AI, output)); // 开始下一轮对话 } // 关闭 Scanner 、 scanner.close(); } private static String reAct(String ak, Memory memory, StringBuilder latestInput) { while (true) { String prompt prompt(USER_PROMPT, TOOLS, memory, latestInput); String llmResult LLM.llm(prompt, ak);从上述流程可以得出Agent模式是将业务运作规则、可调用的工具提供给大模型后模型根据用户的输入判断任务流程并开始执行任务直到模型根据规则判断任务已结束最后输出结果给到用户在这过程中是模型自主在基于已有的上下文信息业务流程定义可选工具用户问题自主执行任务知道问题结束。当模型面对一些开放性问题可能需要用到一个或多个工具来解决问题时有很大的优势。假定tools和模型能力都很完善的情况下比如用户提问国庆快到了想去北京玩。理想状态下Agent可能会自主去查日历根据你平时的行为习惯分析给你规划好路线MCP拉起高德地图、携程、美团等App完成一系列订票、订酒店、找餐厅、生成出行计划等一系列操作最终生成一份出行清单你照着执行即可。当然Agent也可能突然进入一个无用的循环中导致任务推进不下去这又需要定义业务规则去终止或转换流程让任务继续执行下去当然这属于Agent优化中事项了。3、Workflow的模式在大模型应用中Workflow工作流是指将复杂任务拆解为一系列可顺序或条件触发的标准化步骤通过预定义的节点和规则实现自动化执行。与具备自主决策能力的 Agent 模式不同Workflow 更强调流程的结构化、可控性和可重复性。工作流是一个预先定义好的流程根据输入项一个环节到下一个环节逐步执行到任务最终执行完输出结果。例如一个内容生成工作流可能依次包括主题分析 → 资料检索 → 大纲生成 → 分段撰写 → 校对输出。每个节点可以是工具调用、条件判断、RAG检索、数据处理或人工审核等。例如工具节点调用搜索引擎、数据库查询、图像生成模型等判断节点根据上下文决定流程分支如内容质量不合格则触发重写聚合节点合并多个节点的输出结果。由于流程固定每个步骤的输入、输出和状态均可追踪更符合企业级应用对稳定性、审计和合规性的要求。4、协同方式在大模型应用中Workflow 与 Agent 并非互斥而是协同互补的关系。二者的结合可充分发挥结构化流程的可靠性与智能决策的灵活性构建既稳定又自适应的系统。具体协同方式如下Workflow 作为流程骨架负责定义核心环节与执行顺序确保关键任务节点如数据提取、规则校验、结果聚合等可靠执行。Agent 作为决策中枢在流程的关键节点动态引入推理与判断能力例如选择分支路径、调用外部工具、处理异常情况等。例如在智能写作场景中Workflow 固定主干流程主题分析 → 大纲生成 → 内容撰写 → 质量校验在“内容撰写”节点引入 Agent假设给定Agent三个tools检索外部信息作为补充并清洗资料调整写作风格段落格式适应上下文质量核对校验。那么在内容撰写整个流程中会先按既定步骤分析主题生成大纲Agent撰写内容并完善丰富格式校验质量后输出终稿。当然最终是否采用此方案还是要回归场景出发平衡成本、效率和体验。四、模型微调从通用到专业的模型优化路径1、微调是什么微调是指在预训练大模型基础上利用特定领域数据进行进一步训练使其适应特定任务或领域需求。它能让模型能够针对不同领域如医疗、金融更精准的执行任务它能弥补预训练模型在特定任务上的不足显著提升模型在目标领域的表现。与RAG的区别在于RAG属于外挂信息提供到上下文中让模型生成回复。微调是通过语料训练调整模型参数让模型在后续计算输出内容时不断贴合训练的数据。2、微调方法的分类2.1、按参数调整规模分类全量微调Full Fine-tuning特点更新全部预训练参数优势理论性能最优可深度适配任务局限需高算力A100/H100级GPU、大存储数十GB模型副本存在知识遗忘风险适用科研机构/企业级应用追求极致效果参数高效微调PEFT特点冻结主干参数仅训练新增模块优势显存需求降低90%存储仅需MB级支持多任务快速切换代表技术• LoRA在关键层注入低秩矩阵• Adapter插入轻量FFN模块• Prompt Tuning训练输入前缀向量• Prefix Tuning逐层添加任务前缀2.2、按训练范式分类有监督微调SFT数据要求高质量指令-回答对目标建立基础对话能力核心作用预训练模型向实用对话模型的关键转化强化学习微调RLHF流程SFT→训练奖励模型→PPO优化目标优化回答的有用性、安全性特点多阶段训练依赖人类偏好数据自反馈微调DPO直接优化偏好数据无需独立奖励模型RRF多答案生成模型自选优解2.3、按数据形式分类全监督标注完整数据集SFT典型少样本基于极少量样本快速适配在线/离线离线固定数据集训练在线实时用户反馈迭代2.4、方法对比微调的方法有非常多总结来看参数效率与计算需求通常呈反比关系参数越高效的方法计算需求越低。性能潜力与训练成本正相关全量微调和RLHF性能最好但成本最高。LoRA在多个维度上取得了很好的平衡使其成为当前最受欢迎的微调方法。主流微调方式对比2.5、选择建议资源受限场景优先LoRA等PEFT方法训练GPU成本节省90%对话质量要求高SFTRLHF/DPO组合方案数据充足且算力充沛可尝试全量微调注意过拟合监控快速任务迁移采用Prompt Tuning或少样本微调3、微调关键流程3.1、数据准备收集与目标任务相关的训练数据注重数据质量与标注准确性并进行必要的清洗与预处理。3.2、选择基础模型依据任务特点与数据特征选择合适的预训练模型作为微调基础。3.3、确定微调策略根据任务需求与资源条件选择全微调或部分微调如仅调整顶层参数明确微调层级与范围。3.4、配置超参数设置关键训练超参数包括学习率、批量大小、训练轮数等这些直接影响模型收敛速度与性能。3.5、初始化模型参数基于预训练权重初始化模型。全微调通常复用全部原有参数部分微调则可能随机初始化特定层。3.6、执行训练使用选定策略与数据对模型进行微调通过优化算法迭代更新参数以最小化损失函数。3.7、效果评估效果评测可以通过模型能力、体验、安全三个维度进行评估能力维度使用定量指标如准确率在测试集上衡量核心任务性能并通过领域知识题库检验专业性和事实准确性同时利用通用基准测试以避免灾难性遗忘。体验维度通过人工盲测让评估者基于有用性、流畅性等主观偏好选择最佳输出并通过多轮对话测试来验证模型上下文理解和交互的自然度。安全维度通过红队测试主动攻击模型以检验其生成有害内容的风险并使用偏见基准数据集量化分析输出中的公平性问题确保其符合伦理与合规要求。模型微调的整个过程应是一个迭代循环根据评估结果反复调整数据、超参数甚至微调策略直至模型达到所有预期目标。五、写在最后综上所述大模型应用的技术选型本质上是一场围绕用户场景的精准匹配与实践权衡。从轻量敏捷的 Prompt 工程到可靠溯源的 RAG再到流程严谨的 Workflow 与自主决策的 Agent最终至深度定制化的模型微调——每一项技术都有其明确的适用边界与价值定位。AI应用落地从不依赖于追求“最先进”的技术而在于选择“最合适”的方案。产品经理应始终以用户真实需求为锚点在成本、效率与体验之间寻求最优解遵循“如无必要勿增实体”的奥卡姆剃刀原则用简洁可靠的架构解决复杂问题。随着模型能力与工程方法的不断演进未来会有更多技术路径的融合与创新。但核心始终是理解场景、定义问题、选择工具、创造价值。最后近期科技圈传来重磅消息行业巨头英特尔宣布大规模裁员2万人传统技术岗位持续萎缩的同时另一番景象却在AI领域上演——AI相关技术岗正开启“疯狂扩招”模式据行业招聘数据显示具备3-5年大模型相关经验的开发者在大厂就能拿到50K×20薪的高薪待遇薪资差距肉眼可见业内资深HR预判不出1年“具备AI项目实战经验”将正式成为技术岗投递的硬性门槛。在行业迭代加速的当下“温水煮青蛙”式的等待只会让自己逐渐被淘汰与其被动应对不如主动出击抢先掌握AI大模型核心原理落地应用技术项目实操经验借行业风口实现职业翻盘深知技术人入门大模型时容易走弯路我特意整理了一套全网最全最细的大模型零基础学习礼包涵盖入门思维导图、经典书籍手册、从入门到进阶的实战视频、可直接运行的项目源码等核心内容。这份资料无需付费免费分享给所有想入局AI大模型的朋友扫码免费领取全部内容部分资料展示1、 AI大模型学习路线图2、 全套AI大模型应用开发视频教程从入门到进阶这里都有跟着老师学习事半功倍。3、 大模型学习书籍文档4、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5、大模型大厂面试真题整理了百度、阿里、字节等企业近三年的AI大模型岗位面试题涵盖基础理论、技术实操、项目经验等维度每道题都配有详细解析和答题思路帮你针对性提升面试竞争力。6、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。扫码免费领取全部内容这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2482736.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…