掌握未来:为什么每个程序员都应该学习大模型技术?
文章探讨学习大语言模型的必要性强调AI只是工具理解其原理才能形成思维逻辑基础。通过想象力科技案例详细分析了主流AI应用交互流程包括聊天、RAG、网络搜索、代码执行、Agent等应用形态并拆解LLM的预训练与后训练阶段帮助读者构建知识体系为掌控AI而非被AI掌控打下基础。为什么要学LLMLLM应用爆发后我一度认为现代LLM出来之后再去写知识型的文章已经没有太大的意义了。因为不管是读者还是我想知道某个知识点的时候通常直接就问AI就能得到较好的回答。然而每当我使用 AI 应用时我都忍不住知LLM然知LLM所以然为什么能这么强啊作为一个技术从业者难以忍受“被蒙在鼓里”的感觉。这次人类进化又不带我不行我得以写牵引学习以费曼学习法推进我的学习于是就有了本文。如果自己的大脑里空空如也那么连向AI提问都做不好提出问题就是在解决问题。“提出问题和解决问题有本质上的不同这种不同我总结为两个方面。 第一提出问题是质变解决问题是量变。“ – 《毛选》“提出一个问题往往比解决一个问题更重要。因为解决问题也许仅是一个数学上或实验上的技能而已而提出新的问题却需要有创造性的想象力而且标志着科学的真正进步。” – 爱因斯坦“最重要且最困难的工作并不是找到正确答案而是发现正确的问题。“ – 德鲁克如今我明白AI只是工具学习知识并将知识模式内化到我的大脑里能够形成思维逻辑基础形成方法论增强自己对这个世界的判断。数据→信息→知识→知识体系→运转规律道法术器→器术法道生生不息啊。所以带着疑问和思考看本系列的每个章节能逐步构建自己的知识体系为掌控 AI打下基础而不是被 AI 掌控。由此延伸掌握核心技术才能掌握主动权于个体、于集体、于国家都是一样的道理。吾辈当自强啊1 主流AI应用交互分析1.1 大模型聊天过程分析我打开AI聊天窗口https://chat.deepseek.com发送我的Queryalt text流程浅析当我们开始一个LLM聊天对话输入问题时实际上大模型托管服务有内置的上下文信息在我们输入信息按下发送按钮时大模型收到的是内置上下文 系统服务Prompt 用户输入信息。添加上下文和prompt过程谁实现的这里不是模型本身加的上下文和prompt是指模型托管服务添加的如腾讯元宝提供了DeepSeek R1的聊天服务则元宝是模型托管服务商所以增加过程是元宝实现的。为什么要加contextprompt 首先LLM是“无状态”的每次请求仅基于当前输入生成响应所以为了维持对话连贯性需要模型托管服务来维持对话连贯性其次系统提示prompt可以指导模型以特定的方式回答问题例如扮演某个角色、遵循特定格式或避免某些类型的内容。所以如果是直接和模型对话是不会有这些信息的。各个模型增加内容是否有差异需要针对不同模型增加输入如上下文管理方式、提示工程敏感性、安全策略的添加、输入结构化等等差异。上下文管理方式需要考虑模型的上下文长度来管理上下文长度提示工程敏感性DeepSeek R1只需要讲人话一些模型需要更明确的提示所以为了模型表现更好托管服务可能会追加提示词、扩写用户Query等优化。安全策略的添加有些模型是内嵌的安全策略有些模型则没有部分模型通过系统提示约束输出如“避免主观观点”部分模型依赖后置过滤如关键词屏蔽。输入结构化如OpenAI的格式文中 1.3.2 Tokenization 有OpenAI的格式举例等等。大模型经过神经网络的概率统计权重拟合得到下一个要说的词通过流式响应逐个词丢回会话窗口用户就能看到大模型“正在打字”和我们聊天。“打字”的速度就是大模型响应的速度通常看描述LLM性能的一个指标N token/s。举例说明想象力科技的智能客服项目始于一个最基础的需求缓解人工客服处理常见问题的压力。在这一阶段技术团队构建了一个简单的无状态聊天接口。初期的系统架构非常精简前端通过REST API将用户的自然语言输入发送至后端的Spring Boot服务Spring AI框架搭建后端仅作为透传层将提示词Prompt转发给模型托管服务商的基础大模型获取AI的答复。但是这无疑只是给模型托管服务商增加了流量于想象力科技来说没有带来任何价值。于是技术团队开始思考如何本地化托管模型于是构建了自己的GPU集群将模型托管在本地从而实现本地化部署让用户行为自主可控。接着团队发现AI聊天虽然着增加公司流量但LLM本身是无状态的必须在应用层维护会话历史Session History并在每一轮对话中将历史上下文重新通过Prompt发送给模型。随着对话轮数的增加Token消耗呈线性增长且受限于模型的上下文窗口Context Window早期的对话往往出现失忆现象。同时当用户询问公司内部业务问题时如何重置Apex X500路由器的出厂设置时通用大模型由于缺乏想象力科技的相关文档往往基于训练数据中的通用路由器知识编造看似合理实则错误的步骤Hallucination。这种一本正经胡说八道的现象给客服团队带来了巨大的合规风险。这就是LLM的幻觉与知识盲区。1.2 文件上传为了解决这个问题产品经理想到可以让用户自己上传知识文档然后通过、将知识文档中的信息注入到模型上下文中从而让模型具备想象力科技的知识。这就是知识注入。当然用户也可以用文件上传功能将任何文档上传后针对文档的内容进行提问。流程浅析解析文件拿到文本序列也有新的模型方案支持理解图片、表格等将文本切分一个个小块组成一个很长的块序列。文件内容token化把用户输入文本拼在一起作为输入。经过神经网络这个超大函数输出丢出token。循环第三步直到结束符出现。1.3 RAG应用显然让用户上传资料是糟糕的用户体验于是想象力科技引入了RAG技术。让AI掌握想象力科技公司的私有知识数万页的产品手册、维修工单、内规政策等能根据用户的Query自主完成私有知识的关联。RAG通过将检索系统与生成模型结合实现了外挂大脑的效果 。RAGRetrieval-Augmented Generation应用通过结合外部知识检索与生成模型的能力显著提升了回答的准确性与时效性。数据预处理与知识库构建工具与算法数据解析使用OCR工具如Tesseract处理非结构化数据PDF、图像等或通过Python库如PyPDF2、Docx2txt提取文本。文本分割采用滑动窗口、元数据标记或语义分块策略如LangChain的RecursiveCharacterTextSplitter将文档切分为片段。向量化利用嵌入模型如OpenAI的text-embedding-ada-002、Sentence-BERT将文本转换为高维向量存储至向量数据库如FAISS、Pinecone、Milvus。检索阶段流程与模型用户提问向量化输入问题通过嵌入模型生成向量表示。相似度检索在向量数据库中基于余弦相似度或欧氏距离检索Top-K相关文档块。常用算法包括BM25基于关键词频率的传统检索算法适合简单查询。DPRDense Passage Retrieval双编码器模型如BERT捕捉语义相似性。优化策略查询重写使用LLM如GPT-3.5优化问题表述提升检索精度。重排序通过交叉编码器Cross-Encoder对初步结果重新排序过滤低相关性内容。增强阶段上下文整合系统promptplaintext[指令]基于以下知识回答问题[文档1][文档2]…[文档N] [问题]用户原始提问提示工程通过结构化模板引导模型关注关键信息如网页3示例中的问答模板。将检索到的文档块与用户问题拼接为增强提示Prompt输入生成模型。例如生成阶段模型与技术大语言模型LLM如GPT-4、Llama 2、Claude等负责生成最终回答。这些模型通过自注意力机制整合检索内容与内部知识。后处理部分场景需对输出进行校验如引用来源标注、格式优化或基于规则的内容过滤。高级优化与工具链实时数据集成若知识库缺乏实时信息可调用网络搜索API如Serper、Google Custom Search补充动态数据。纠正性RAG使用AI智能体框架如LangGraph构建循环工作流通过LLM验证检索结果相关性自动触发二次检索或查询改写。评估与调试借助自动化评估工具如RAGAS、LlamaIndex量化检索精度与生成质量。工具推荐• 个人知识库https://ima.qq.com功能强大可便捷积累自己的知识基于满血DeepSeek提供问答能力个人知识积累的利器。https://notebooklm.google.com/ 需要科学上网非常好用我认为目前最好用的个人知识库。个人知识库示例• 构建企业知识库https://github.com/infiniflow/ragflow/blob/main/README_zh.md开源的RAG项目可快速部署构建企业级RAG服务。图片来源 https://demo.ragflow.io/user-setting/modelRAG的检索和传统搜索引擎的比较维度RAG的重排搜索引擎的重排输入范围初步召回的候选集通常为Top 100以内全量索引库可能涉及百万级文档优化目标语义相关性和上下文匹配为生成模型服务综合相关性、商业价值、用户行为技术手段深度学习模型Cross-Encoder、LLM传统算法BM25 用户行为分析计算成本高需对每对“查询-文档”单独推理低依赖预计算的索引和统计特征应用场景知识密集型问答、专业领域咨询通用搜索、电商推荐、新闻排序1.4 网络搜索通用大模型的另一个致命弱点是知识截止Knowledge Cutoff。想象力科技公司的客户经常询问最近的某个突发事件是否会影响我的快递送达“或当前最新的5G通讯协议标准对比”。为了解决这一问题系统集成了网络搜索工具如灵境搜索、博查搜索、DuckDuckGo Search Tool或Google Search API等突破大模型静态知识的特性。搜索流程浅析将用户输入做总结特别是在经过多轮对话后关注点分散、关键词不易捕捉的情况。调用搜索引擎每个AI聊天应用的实现情况不一样调用特定的搜索引擎如ChatGPT是BingDeepSeek是博查。对搜索结果列表中内容进行阅读和解析。对搜索结果进行相关度排序选出前NRerank模型对初步检索结果重新排序提升相关性如Cohere Reranker、Cross-Encoder。将前N篇文章作为参考内容标识草考内容与用户Query一起传给LLM。大模型返回结果。与传统搜索引擎差异维度AI聊天应用传统引擎交互方式自然语言对话式交互支持多轮追问和上下文关联关键词输入 点击链接的单次交互结果呈现生成结构化答案文字 图表 代码直接解决问题返回网页链接列表需用户自行筛选信息信息处理逻辑实时检索 大模型推理理解意图→搜索→整合→生成基于索引的匹配排序关键词→网页相关性排序时效性维度部分支持实时信息如联网版 GPT但存在延迟和覆盖限制毫秒级索引更新尤其新闻 / 突发事件演进趋势技术融合Google已测试「生成式搜索」SGE百度推出「灵境搜索」入口争夺聊天应用正成为新流量入口传统引擎加速AI化可信度提升AI搜索开始标注引用来源如Perplexity的引文链接硬件集成两者均在向智能音箱、AR设备等新终端渗透未来可能形成「AI对话层传统搜索底层」的混合架构既保持生成效率又确保信息可验证性。当前阶段二者仍处于互补共存状态用户往往需要交叉验证两种渠道的信息。主流AI应用搜索实现情况经验要根据自己的需求来用不同的搜索引擎关联的网页会很大程度影响回答的准确性。对于严谨的问题不要过于相信和依赖给出的答案多比对几家AI的结果小心求证。1.5 执行代码上面有了网络搜索知道了最新的消息情况但并不能关联到用户的订单无法得知订单的物流情况就无法解答“某个突发事件对快递物流的影响”问题所以需要引入代码能力。也就是借助LLM的Function Calling能力与业务系统进行交互获取用户订单情况。流程如下开始 工具定义与注册 想象力科技公司封装微服务为工具遵循MCP协议接口 工具注册到系统checkOrderStatus(orderId)等 等待用户请求 用户发送请求如查询订单状态 意图识别LLM分析语义决定调用工具 参数提取LLM输出结构化参数如JSON: {orderId: 12345} 函数执行Spring Boot后端拦截请求执行实际数据库查询逻辑 结果回填查询结果作为Observation返回如已发货预计明日送达 LLM处理观察结果 结束定义与注册工具想象力科技公司将内部微服务封装为AI可调用的工具MCP协议的接口。例如checkOrderStatus(orderId)查询订单状态。意图识别LLM分析语义决定调用checkOrderStatus工具。参数提取LLM输出结构化数据如JSON包含orderId: “12345”。函数执行Spring Boot后端拦截该请求执行实际的数据库查询逻辑。结果回填查询结果“已发货预计明日送达”被作为Observation观察结果返回给LLM。最终生成LLM根据执行结果生成自然语言回复 。除了上述Function Calling外还有 **代码执行Code Execution**是工具使用的高级形态。对于复杂的物流路径优化计算想象力科技公司并未让LLM直接进行数学推理这是LLM的弱项而是允许Agent编写一段Python脚本并在安全的沙箱容器Docker中运行该脚本获取精确的计算结果。这种LLM作为编程者沙箱作为执行者的模式极大地扩展了系统的能力边界 。举例大数相乘错误率很高此时应当借助代码。流程浅析用户输入解析用户通过自然语言描述需求如“用JavaScript实现Promise重试函数”模型解析意图并提取关键参数如重试次数、间隔时间。代码生成与模式匹配模式检索从训练数据中匹配类似逻辑如递归重试、错误传播结合语法规则生成代码框架。动态优化根据上下文调整代码结构。例如将传统函数转换为箭头函数和模板字符串同时保持执行时机一致性。工具调用与框架协作依赖反转设计通过Prompt定义外部工具接口如查询天气API模型生成调用指令框架层路由执行并返回结果。多轮交互框架循环执行“生成→调用工具→反馈结果→修正”流程直至满足终止条件。执行验证与调试自动化测试结合单元测试验证生成代码的正确性。例如字节跳动利用LLM自动生成测试用例提升覆盖率和问题发现率。代码优化借助Meta的LLM Compiler等工具对生成代码进行编译优化如减少内存占用、提升执行效率。1.6 深度研究与Agent除了内部知识客户有时会询问一些复杂的分析请求如“现在的美元汇率趋势如何对我采购一批进口设备与什么影响我应该在什么时机买入”。这时候简单的网络搜索并不能很好解答用户的复杂问题于是想象力科技公司做了进一步的改进引入了 Agent在判定问题复杂度后或者用户指定需要对问题进行深度研究系统会启动一个异步 Agent。该 Agent 会执行多轮搜索阅读多篇报告以及关联材料后提取关键数据并结合设备的价格走势等复杂情况最终合成一份详细的对比报告。这种“思维链Chain-of-Thought”能力远超简单的搜索摘要。深度研究流程浅析1、拆解研究任务得到Todo list。2、分步执行研究子任务根据任务做联网搜索、工具调用、脚本执行等等组合行为完成子研究任务。3、根据子任务结果调整研究步奏调整接下来的Todo List。4、执行完整个研究结果汇总报告返回给用户。主流的AI Agent基本技术框架主要围绕其核心能力模块构建通过环境感知、规划、记忆、工具使用与行动等组件的协同实现自主任务处理。为了应对不同的业务场景想象力科技公司采用了多种Agent设计模式来应对不同场景ReAct (Reason Act)最基础的Agent模式让模型在执行动作前先进行思考Thought执行后观察结果Observation循环往复直至解决问题 。路由模式Routing利用一个主控LLM作为分诊台根据用户意图将请求分发给售后Agent、“技术支持Agent或销售Agent”。这避免了全能型Agent的提示词过长导致的注意力分散 。编排者-工兵模式Orchestrator-Workers对于为新办公室配置全套网络设备这样的复杂任务编排者Agent将任务拆解为“需求分析、“设备选型”、预算计算等子任务分发给不同的工兵Agent并行处理最后汇总结果 。在任务规划与执行方面想象力科技公司为了管理复杂的Agent状态和防止死循环引入了基于图Graph的编排框架——LangGraph4j。状态图StateGraph将Agent的思考过程建模为图中的节点Node将决策逻辑建模为边Edge。系统维护一个全局状态State包含对话历史、中间变量和工具输出 。人机协同Human-in-the-Loop, HITL在涉及退款金额超过500元的操作时Agent流程中嵌入了一个人工审批节点。Agent执行到此节点会挂起Suspend等待人类主管在管理后台点击批准后状态机才继续流转执行转账操作。这种机制在赋予AI自主权的同时保留了人类的最终控制权 。1.7 定制化工作流想象力科技公司发现有些用户提问是需要经过较为固定的流程从未得到更精准的处理结果的比如用户提出要比价采购。这时候用固定的工作流来处理会更可靠稳定。于是他们开发了工作流能力产品经理可以根据业务场景将多个工具串联起来形成一套应对复杂场景的流程编排。1.8 自定义对话角色随着运营想象力科技公司分析数据发现有些用户是希望让AI做角色扮演为了丰富用户玩法想象力科技公司开发自定义AI角色用户可以自定义对话角色让AI扮演不同的角色比如林黛玉客服、王熙凤销售、薛宝钗售后等等让AI更加拟人化更加贴近用户偏好。豆包的角色设定alt text本质是Prompt定制即提示词工程 Prompt Engineeringhttps://www.promptingguide.ai/zh提示词工程在AI的实现过程可以起到很很大的作用。1.9 AI Coding应用这类应用在25年得到了很大的发展因为可以深入嵌入我们的工业流程当中实打实的提升了我们的生产效率备受欢迎。也是在我们介绍的这几种应用中最为复杂的前面所有的应用都是在补齐知识短板也就是在组织给LLM的上下文信息而AI Coding是上下文工程的集大成者。回想以前我们想通过AI帮我们解决代码问题可能我们要贴一大堆代码到聊天窗口上然后让AI的代码上下文能不能找出错误不够便捷使用欲望下降。现在可以看到市面上应用越来越丰富和完善严谨过程非常快问答助手》代码补全》Agent》CLI模式》Spec Coding还没学会掌握又推出了更强更快更稳的范式浪潮翻涌迭代快进。回忆起年初我还在不断尝试新的插件工具配合DeepSeek来使用如今已经切到CLI模式用Spec Coding来完成工作。而软件工程的自动化进程经历了三个显著阶段基于规则的静态分析、基于统计的自动补全以及当前基于大模型的智能生成。我们由浅入深逐渐增加复杂度看看当前代码生成与补全流程、代码理解与上下文分析流程、自动化代理任务执行流程。想象力科技公司在自己的内部研发流程上也希望通过AI Coding来提升效率。代码生成与补全流程代码生成与补全是最基础也是最核心的流程。上下文收集当用户在IDE中输入代码时客户端插件会实时捕获当前的上下文信息。这通常包括光标所在位置的代码、当前文件的内容、项目中其他相关文件如导入的模块、父类定义等、以及用户最近编辑的文件 。提示构建Prompt Engineering 收集到的上下文信息被用来构建一个精心设计的提示Prompt这个提示将作为输入发送给LLM。提示的设计至关重要它通常会包含指令例如“完成这个函数”、相关的代码示例、以及从代码库中检索到的最相关的代码片段 。模型推理构建好的提示被发送到后端的LLM。模型根据提示中的上下文信息预测最可能的后续代码序列。响应处理与返回LLM生成的代码建议被返回给客户端。客户端插件会对响应进行处理例如进行语法检查、格式化然后以“幽灵文本”ghost text的形式显示在编辑器中等待用户接受通常是按Tab键或拒绝 。为了优化性能许多工具还采用了流式传输streaming和缓存机制使得代码建议可以逐词显示而不是等待整个响应完成按Tab键接受 忽略/拒绝 响应处理 语法检查与验证 代码格式化 生成幽灵文本 提示构建 指令定义如完成这个函数 相关代码示例 代码库检索最相关代码片段 上下文收集 光标所在位置代码 当前文件内容 项目相关文件 用户最近编辑历史 开始 用户在IDE中输入代码 实时捕获上下文信息 发送提示到后端LLM 模型推理LLM生成代码建议 流式传输逐词返回结果 缓存机制优化性能 在编辑器中显示幽灵文本 用户交互决策 插入建议代码 清除幽灵文本 代码被应用到编辑器中 建议被丢弃 结束代码理解与上下文分析流程为了让AI能够理解整个项目的上下文而不仅仅是当前文件AI Coding应用采用了复杂的代码理解和上下文分析流程。采用了基于向量嵌入和检索增强生成RAG的技术。相似性搜索 在向量数据库中搜索 检索最相关代码块top-k相似性 代码索引 代码分块处理 嵌入向量生成 向量存储管理 使用Tree-sitter解析器分解为语义块函数/类/模块等 通过嵌入模型转换为高维向量捕捉语义信息 存储到向量数据库Pinecone/Turbopuffer 开始 用户打开项目 等待用户查询 用户提出查询 查询向量化 上下文注入构建增强提示 发送给LLM处理检索增强生成 LLM生成结果基于项目上下文的代码 返回给用户 结束 索引阶段预处理整个代码库建立语义索引 检索阶段实时响应查询提供最相关上下文代码索引Indexing 当用户打开一个项目时工具会首先对整个代码库进行索引。这个过程通常包括代码分块Chunking 使用诸如Tree-sitter之类的解析器将代码文件分解成语义上有意义的块如函数、类、模块等 。嵌入生成Embedding Generation 将每个代码块通过一个嵌入模型embedding model转换成一个高维向量。这个向量捕捉了代码块的语义信息 。向量存储将生成的向量存储在一个专门的向量数据库中如Pinecone或Turbopuffer 。上下文检索Retrieval 当用户提出一个问题或需要生成代码时工具会首先将用户的查询query也转换成向量。相似性搜索Similarity Search 在向量数据库中执行相似性搜索找到与查询向量最相似的代码块向量。这些代码块就是与当前任务最相关的上下文。上下文注入Context Injection 将检索到的相关代码块作为上下文与用户的问题一起构建成一个丰富的提示然后发送给LLM进行处理 。通过这种方式LLM就能够“看到”和理解整个代码库的相关部分从而生成更准确、更符合项目规范的代码。除此之外还可以做更多优化如上下文分块策略、本地与远程的混合索引结构化代码智能 Sourcegraph Cody 的 Graph RAG混合检索架构嵌入向量Embeddings用于捕捉自然语言查询的意图代码图Code Graph用于解析依赖关系。自动化代理任务执行流程自动化编程代理Agent的流程更为复杂它涉及到一个自主的规划和执行循环。意图分类Intent Classification Agent首先分析用户的自然语言指令理解其核心意图和目标。任务规划Task Planning 将高层次的目标分解成一系列具体的、可执行的步骤。工具选择与执行Tool Selection Execution Agent拥有一个“工具箱”包含各种可以调用的工具如读写文件、运行终端命令、搜索代码库、调用API等。对于规划好的每一步Agent会选择最合适的工具来执行。验证与自我修正Verification Self-correction 在执行完一个步骤后Agent会进行验证检查是否达到了预期的效果。例如在运行测试后它会检查测试是否通过。如果出现问题Agent会尝试自我修正例如根据错误信息来修复代码 。循环迭代Agent会重复执行-验证-修正的循环直到完成所有规划好的步骤并最终实现用户的初始目标。这个流程使得Agent能够处理复杂的、需要多步操作和决策的开发任务真正扮演起一个初级软件工程师的角色。失败/未达预期 成功/测试通过 否: 执行下一步 是: 目标达成 开始: 接收自然语言指令 意图分类Intent Classification 任务规划Task Planning 工具选择与执行Tool Selection Execution 验证 Verification 自我修正Self-correction 所有步骤已完成?Loop Iteration 结束: 交付结果工程实现的复杂性主要集中在如何弥合 LLM 有限的上下文窗口与海量、动态的代码库之间的鸿沟以及如何在保证极低延迟Low Latency的同时提供高精度的语义理解。当前主流的AI Coding通过大模型 上下文感知 工具链集成目前的基础方案基本是对项目构建RAG仓库代码索引其他探索方案Cursor基于 Shadow Workspace 与 Merkle Tree 的深度集成• Shadow Workspace影子工作区的架构实现创建一个沙箱环境预处理和验证 AI 的生成获取编译错误或 Lint 警告修复问题从而消除用户的等待感和错误率。可解决给一个完全不存在的方法、变量名等基础问题。• 增量索引与 Merkle Tree RAG 架构为了处理大规模代码库的上下文ContextCursor 并不依赖单纯的文本嵌入Embedding而是构建了一套基于 Merkle Tree 的同步机制解决了 RAG检索增强生成在代码场景下的时效性难题。包括语义分块、Merkle Tree 同步机制等。主流AI Coding助手开源插件存在代码和信息泄露风险仅供个人使用不建议对公司内项目进行使用建议在自己的电脑上使用当然公司本身授权使用就是另一回事了。如果想要利用开源插件能力可修改开源插件仅使用公司内部的大模型API接口避免信息安全问题。• Clinehttps://marketplace.visualstudio.com/items?itemNamesaoudrizwan.claude-devalt text• ClineRoo Codehttps://marketplace.visualstudio.com/items?itemNameRooVeterinaryInc.roo-clinealt text• Continuehttps://marketplace.visualstudio.com/items?itemNameContinue.continuealt textIDE国内• 阿里 通义灵码企业收费、个人免费https://lingma.aliyun.com/• 豆包 Trae https://www.marscode.cn/• 腾讯(免费可选模型多) CodeBuddy https://www.codebuddy.ai/国际• Cursor 当前标杆• Cluade code• GitHub Copilot• Cindsurf开源插件存在代码和信息泄露风险仅供个人使用不建议对公司内项目进行使用建议在自己的电脑上使用当然公司本身授权使用就是另一回事了。如果想要利用开源插件能力可修改开源插件仅使用公司内部的大模型API接口避免信息安全问题。• Clinehttps://marketplace.visualstudio.com/items?itemNamesaoudrizwan.claude-devalt text• ClineRoo Codehttps://marketplace.visualstudio.com/items?itemNameRooVeterinaryInc.roo-clinealt text• Continuehttps://marketplace.visualstudio.com/items?itemNameContinue.continuealt textIDE国内• 阿里 通义灵码企业收费、个人免费https://lingma.aliyun.com/• 豆包 Trae https://www.marscode.cn/• 腾讯(免费可选模型多) CodeBuddy https://www.codebuddy.ai/国际• Cursor 当前标杆• Cluade code• GitHub Copilot• Cindsurf这里给大家精心整理了一份全面的AI大模型学习资源包括AI大模型全套学习路线图从入门到实战、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等资料免费分享扫码免费领取全部内容1. 成长路线图学习规划要学习一门新的技术作为新手一定要先学习成长路线图方向不对努力白费。这里我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。2. 大模型经典PDF书籍书籍和学习文档资料是学习大模型过程中必不可少的我们精选了一系列深入探讨大模型技术的书籍和学习文档它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。书籍含电子版PDF3. 大模型视频教程对于很多自学或者没有基础的同学来说书籍这些纯文字类的学习教材会觉得比较晦涩难以理解因此我们提供了丰富的大模型视频教程以动态、形象的方式展示技术概念帮助你更快、更轻松地掌握核心知识。4. 2026行业报告行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5. 大模型项目实战学以致用当你的理论知识积累到一定程度就需要通过项目实战在实际操作中检验和巩固你所学到的知识同时为你找工作和职业发展打下坚实的基础。6. 大模型面试题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我们将提供精心整理的大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。7. 资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2412599.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!