AI应用开发实战指南:从RAG到智能体,构建企业级知识库助手

news2026/5/8 5:47:54
1. 项目概述一份面向开发者的AI应用实战指南最近几年AI领域的变化快得让人有点跟不上。从大语言模型LLM的爆发到各类AI应用如雨后春笋般涌现很多开发者朋友都跟我聊过感觉“学不动了”或者知道AI很火但不知道如何真正把它用在自己的项目里创造实际价值。这正是“liyupi/ai-guide”这个项目试图解决的问题。它不是一个枯燥的理论教程也不是一个简单的工具列表而是一份由一线开发者整理、旨在“授人以渔”的实战指南。它的核心目标很明确帮助开发者特别是那些有一定编程基础但AI经验尚浅的朋友快速理解AI应用开发的核心脉络并亲手构建出能解决实际问题的AI应用。这份指南的价值在于它的“实战导向”和“路径清晰”。它没有一上来就堆砌复杂的数学公式或神经网络原理而是直接从“我们能做什么”和“我们该怎么做”切入。它梳理了从创意构思、技术选型、开发实现到部署上线的完整闭环并且提供了大量可参考、可复现的案例。对于我这样在多个项目中尝试过集成AI能力的人来说看到这样一份系统性的指南感觉就像有人把散落一地的拼图块按照清晰的逻辑重新排列好了。它不仅能帮你节省大量前期摸索和试错的时间更重要的是它能帮你建立起一个正确的“AI应用开发”心智模型让你知道在哪个阶段该关注什么避免在技术细节的海洋里迷失方向。2. 核心思路拆解从“能用AI”到“用好AI”的思维转变很多开发者对AI应用的初体验可能始于调用某个开放的API比如让ChatGPT帮忙写段代码或者总结一段文字。这当然很有用但这距离构建一个稳定、可靠、甚至能产生商业价值的AI应用还有很长的路要走。“ai-guide”项目在开篇就引导我们进行了一次重要的思维转变从单纯地“使用AI工具”转向系统地“构建AI产品”。2.1 以问题定义和场景拆解为起点这是所有成功AI项目的基石却最容易被忽略。指南强调不要一上来就纠结于用哪个模型、哪个框架而是要先问自己几个关键问题我要解决的具体问题是什么这个问题的输入和输出分别是什么现有的、非AI的解决方案为什么不够好或成本太高我的目标用户是谁他们会在什么场景下使用这个功能例如你想做一个“智能周报生成器”。一个模糊的想法是“用AI写周报”但这不够。你需要拆解输入是员工本周的Git提交记录、JIRA任务更新、会议纪要文本还是手动填写的几个关键词输出是需要一个格式固定、语言风格正式的文档还是一个可以自由编辑的Markdown草稿用户是追求效率的工程师还是需要向上汇报的经理每个不同的答案都会导向完全不同的技术方案和产品形态。指南会引导你通过绘制用户旅程图、梳理数据流的方式把模糊的需求变得具体、可执行。这一步做扎实了后续的技术选型才会有的放矢。2.2 技术栈的分层与选型逻辑面对琳琅满目的模型、框架和云服务新手很容易陷入选择困难症。“ai-guide”提供了一个非常清晰的分层选型框架我个人非常认同。它大致将技术栈分为四层模型层这是核心引擎。你需要根据任务类型文本生成、对话、代码、图像生成等、对效果和成本的要求来选择是使用云端托管的API如OpenAI的GPT系列、Anthropic的Claude还是开源模型如Llama、Qwen、DeepSeek亦或是针对特定任务微调过的专属模型。应用框架层这是连接你的业务逻辑和AI模型的桥梁。是用LangChain这样的“瑞士军刀”来快速组装复杂的工作流还是用LlamaIndex专注于构建基于私有知识的问答系统或者你的需求很简单直接使用SDK调用API就够了框架的选择极大地影响了开发效率和系统的可维护性。工程与部署层AI应用不是跑通一次就结束了。你需要考虑如何高效地管理提示词Prompt如何对输出进行后处理和校验如何实现流式输出以提升用户体验以及最终如何将应用部署上线并监控其性能和成本。这一层会涉及Docker、FastAPI、数据库、向量数据库如Chroma、Weaviate等技术。评估与优化层如何知道你的AI应用效果好不好不能只靠人工看几个例子。需要设计评估指标准确率、相关性、人工评分建立测试集并持续迭代优化提示词或模型。“ai-guide”对每一层都提供了主流选项的对比分析并给出了在不同场景下的选型建议。比如对于快速验证想法的原型阶段可能优先选择易用性高的云端API和LangChain而对于数据敏感、需要控制成本的生产环境则可能倾向于使用开源模型和更轻量的自定义框架。3. 核心开发模式与架构设计理解了分层选型后下一步就是设计应用的架构。“ai-guide”重点介绍了两种在当今AI应用开发中最主流、最实用的模式智能体Agent模式和检索增强生成RAG模式。掌握这两种模式几乎可以覆盖80%的AI应用场景。3.1 智能体模式让AI学会“使用工具”智能体模式的核心思想是赋予大语言模型“动手能力”。模型本身是一个强大的“大脑”但它无法直接操作外部世界比如查询数据库、调用天气API、执行一段代码。智能体模式通过定义一套“工具”Tools并让模型学会在需要时规划、选择并调用合适的工具从而完成复杂的、多步骤的任务。一个经典的例子是“旅行规划助手”。用户说“我想下周末去杭州玩两天预算3000元帮我规划一下。” 纯聊天模型只能给出一些泛泛的建议。但一个智能体可以这样做规划模型理解任务需要查询天气、查找航班/高铁信息、推荐酒店和景点。调用工具模型依次调用“天气查询工具”输入杭州下周末、“交通查询工具”输入用户所在城市到杭州下周末、“酒店搜索工具”输入杭州预算范围、“景点推荐工具”。整合与回复模型将各个工具返回的结果进行整合、分析和总结生成一份包含具体航班车次、酒店选项、景点路线和预算分配的详细规划。“ai-guide”详细讲解了如何利用LangChain或AutoGen等框架来构建智能体。关键点在于“工具”的定义要清晰名称、描述、输入参数、执行函数并且要给模型提供清晰的使用说明通过System Prompt。实践中最大的挑战是让模型稳定地做出正确的工具调用决策这需要通过精心设计提示词和引入验证机制来解决。3.2 检索增强生成模式给AI装上“知识库”RAG模式解决的是大模型“知识陈旧”和“幻觉”问题。模型在训练时学到的知识是静态的无法知晓训练截止日期之后的事件也无法访问你私有的、未公开的数据如公司内部文档、个人笔记。RAG通过“先检索后生成”的方式来解决这个问题。其工作流程分为三步索引将你的私有知识库一堆PDF、Word、网页进行切分转换成文本片段然后通过嵌入模型Embedding Model将这些文本转换成高维向量存入专门的向量数据库中。检索当用户提出一个问题时系统首先将问题也转换成向量然后在向量数据库中进行相似度搜索找出与问题最相关的几个文本片段。增强生成将检索到的相关文本片段作为“上下文”和用户的原始问题一起提交给大语言模型并指令模型“基于以下上下文回答问题”。这样模型就能生成既有通用知识、又包含特定私有信息的准确回答。“ai-guide”对RAG的每个环节都给出了实操建议。例如在索引阶段文档切分的大小和重叠度需要根据文档类型调整选择嵌入模型时要兼顾效果和速度向量数据库的选择要考虑规模、性能和成本。在检索阶段可以尝试不同的搜索策略如相似度搜索、混合搜索结合关键词过滤。在生成阶段提示词的设计至关重要要明确告诉模型答案必须基于提供的上下文对于上下文没有的信息要诚实回答“不知道”。注意RAG听起来简单但想做好并不容易。常见的坑包括检索不到相关内容切分或嵌入模型不佳、检索到无关内容导致模型混淆、上下文长度超限需要压缩或摘要。指南会分享如何通过评估检索质量、实施重排序等技巧来提升RAG系统的效果。4. 关键工具链与实操环境搭建理论再好也需要落地。“ai-guide”花了大量篇幅介绍支撑AI应用开发的全套工具链并提供了手把手的环境搭建指南。这部分内容对于新手快速上路至关重要。4.1 开发环境与包管理建议使用Python作为主要开发语言因为它拥有最丰富的AI生态库。使用conda或venv创建独立的虚拟环境是第一步这能避免不同项目间的依赖冲突。包管理方面pip是基础但对于复杂的科学计算和AI库有时需要关注特定版本甚至从源码编译。指南会列出核心依赖如openai,langchain,chromadb,sentence-transformers等并说明其作用。4.2 模型访问与API管理如果你使用云端API如OpenAI第一件事就是安全地管理你的API密钥。绝对不要将密钥硬编码在代码中或上传到GitHub。推荐使用环境变量.env文件配合python-dotenv库或专门的密钥管理服务。对于开源模型指南会介绍如何通过Hugging Face或ModelScope等平台下载模型并使用Transformers或vLLM等库进行加载和推理。这里会涉及对GPU资源的要求和配置说明。4.3 提示词开发与管理提示词是AI应用的“源代码”。随着应用复杂化提示词会变得又长又多。直接写在代码里会难以维护和迭代。“ai-guide”推荐使用专门的提示词管理方法比如将提示词模板化存放在独立的JSON或YAML配置文件中或者使用像LangChain的PromptTemplate这样的工具。更高级的做法是建立提示词版本库进行A/B测试以数据驱动的方式优化提示词效果。4.4 应用服务化与部署一个本地运行的脚本不是产品。你需要将其封装成服务。FastAPI是一个极佳的选择它轻量、异步、能自动生成API文档。你可以定义一个POST接口接收用户输入调用背后的AI处理逻辑并返回结果。部署时将整个应用Docker化是最佳实践这保证了环境的一致性。你可以将Docker镜像部署到任何云服务器或者使用更便捷的云原生平台如Railway、Fly.io、或各大云商的Serverless服务。指南会提供一个最简单的Dockerfile示例和docker-compose.yml文件演示如何将AI应用、向量数据库等组件一起启动。5. 从零构建一个智能知识库助手全流程实战我们结合RAG模式来走一遍构建一个“智能知识库助手”的完整流程。这个场景非常普遍比如用于企业内部文档问答、个人学习笔记查询等。5.1 第一步定义需求与准备数据假设我们想为公司的新员工搭建一个“产品手册问答助手”。需求是新员工可以用自然语言提问关于产品的任何问题助手能基于最新的产品手册、FAQ和更新日志给出准确答案。 我们需要收集所有相关的文档PDF格式的产品手册、Confluence页面导出的HTML、Markdown格式的更新日志。将这些文档统一放在一个本地目录./knowledge_base下。5.2 第二步搭建知识库索引系统这是RAG的“索引”阶段。我们选择以下技术栈文本加载与切分使用LangChain的文档加载器UnstructuredFileLoader,DirectoryLoader和文本分割器RecursiveCharacterTextSplitter。这里有个关键参数chunk_size500每个文本块500字符左右chunk_overlap50块之间重叠50字符保证上下文连贯。嵌入模型为了本地运行和节省成本我们选择开源的sentence-transformers模型比如all-MiniLM-L6-v2。它在效果和速度之间取得了很好的平衡。向量数据库选择轻量且易用的ChromaDB它可以持久化存储到本地。核心代码结构如下from langchain_community.document_loaders import DirectoryLoader from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain_community.embeddings import HuggingFaceEmbeddings from langchain_community.vectorstores import Chroma # 1. 加载文档 loader DirectoryLoader(./knowledge_base, glob**/*.pdf) documents loader.load() # 2. 分割文本 text_splitter RecursiveCharacterTextSplitter(chunk_size500, chunk_overlap50) texts text_splitter.split_documents(documents) # 3. 初始化嵌入模型 embeddings HuggingFaceEmbeddings(model_nameall-MiniLM-L6-v2) # 4. 创建并持久化向量库 vectorstore Chroma.from_documents(documentstexts, embeddingembeddings, persist_directory./chroma_db) vectorstore.persist()运行这段代码后你会在本地得到一个chroma_db目录里面存储了所有文档片段的向量索引。5.3 第三步构建问答链这是RAG的“检索”和“生成”阶段。我们使用LangChain的RetrievalQA链来简化流程。from langchain.chains import RetrievalQA from langchain_community.llms import OpenAI # 或者使用开源模型如通过Ollama from langchain.prompts import PromptTemplate # 1. 加载已存在的向量库 embeddings HuggingFaceEmbeddings(model_nameall-MiniLM-L6-v2) vectorstore Chroma(persist_directory./chroma_db, embedding_functionembeddings) # 2. 将向量库转换为检索器 retriever vectorstore.as_retriever(search_kwargs{k: 4}) # 每次检索最相关的4个片段 # 3. 定义提示词模板 prompt_template 请根据以下上下文信息回答问题。如果你不知道答案就说你不知道不要编造答案。 上下文 {context} 问题{question} 答案 PROMPT PromptTemplate(templateprompt_template, input_variables[context, question]) # 4. 初始化LLM这里以OpenAI为例需设置环境变量OPENAI_API_KEY llm OpenAI(model_namegpt-3.5-turbo-instruct, temperature0) # 5. 创建问答链 qa_chain RetrievalQA.from_chain_type( llmllm, chain_typestuff, # 最简单的方式将所有检索到的上下文塞进提示词 retrieverretriever, chain_type_kwargs{prompt: PROMPT}, return_source_documentsTrue # 返回来源文档便于调试 ) # 6. 提问 question 我们产品的高级版和企业版在API调用次数上有什么区别 result qa_chain({query: question}) print(答案, result[result]) print(来源, result[source_documents])5.4 第四步封装API与部署将上面的问答链用FastAPI包装起来。from fastapi import FastAPI, HTTPException from pydantic import BaseModel app FastAPI() class QuestionRequest(BaseModel): question: str # 假设qa_chain已在全局初始化 app.post(/ask) async def ask_question(request: QuestionRequest): try: result qa_chain({query: request.question}) return { answer: result[result], sources: [doc.page_content[:200] for doc in result[source_documents]] # 返回部分源文本 } except Exception as e: raise HTTPException(status_code500, detailstr(e))然后使用uvicorn运行服务uvicorn main:app --host 0.0.0.0 --port 8000。最后编写Dockerfile将应用、依赖和向量数据库一起打包成镜像即可部署到服务器。6. 进阶优化与生产级考量一个能跑通的Demo和一個真正可靠的生产应用之间存在巨大差距。“ai-guide”在后续章节深入探讨了生产级AI应用必须面对的挑战和优化策略。6.1 提示词工程的高级技巧基础的提示词是“一问一答”。但生产系统需要更鲁棒、更高效的提示。思维链对于复杂推理问题在提示词中要求模型“一步一步思考”可以显著提升答案的准确性和逻辑性。少样本学习在提示词中提供几个高质量的输入输出示例能快速让模型理解你想要的格式和风格。输出结构化要求模型以JSON、XML等特定格式输出便于后端程序解析和处理。例如请以JSON格式输出包含‘summary’和‘keywords’两个字段。提示词组成将提示词分为系统指令设定角色和全局规则、上下文检索到的信息、用户问题、历史对话等部分使结构更清晰。6.2 评估、监控与持续迭代没有衡量就无法改进。你需要建立评估体系。离线评估构建一个测试集包含一系列标准问题及其期望答案或评分标准。每次更新模型、提示词或知识库后自动运行测试集计算答案的相似度如使用BLEU、ROUGE分数或调用另一个LLM进行评分。在线监控在生产环境记录每一次问答的输入、输出、来源、耗时和Token消耗。设置告警如响应时间过长、错误率升高、成本异常。收集用户的反馈如“点赞/点踩”作为优化的重要依据。迭代循环基于监控和反馈数据分析bad cases。是检索不准还是模型理解有误或是提示词有歧义针对性地调整切分策略、检索参数、提示词甚至考虑对模型进行微调形成一个持续的优化闭环。6.3 成本控制与性能优化AI应用尤其是调用商用API成本可能快速增长。缓存对常见、重复的问题答案进行缓存可以极大减少对模型的调用。异步与流式处理对于耗时的生成任务使用异步接口避免阻塞并采用流式输出SSE让用户尽快看到部分结果提升体验。模型阶梯使用并非所有任务都需要最强大、最贵的模型。可以用小模型处理简单的分类、路由任务只有复杂任务才调用大模型。这就是“智能体”中常用的路由逻辑。Token精打细算优化提示词去除冗余信息。在RAG中对检索到的长上下文进行摘要压缩后再送给模型可以节省大量Token。7. 常见问题与实战避坑指南结合我自己的经验和“ai-guide”的总结这里列出几个高频问题及其解决方案。问题一检索效果差总是找不到相关内容。可能原因1文本切分不合理。如果块太大会包含无关信息如果块太小会丢失完整语义。解决方案尝试不同的chunk_size如200, 500, 1000和chunk_overlap。对于结构化文档如手册可以尝试按标题切分。可能原因2嵌入模型不匹配。通用嵌入模型在某些专业领域表现不佳。解决方案尝试在领域数据上微调嵌入模型或者使用针对该领域优化的模型如针对代码、生物医学的专用模型。可能原因3搜索策略单一。仅用向量相似度搜索可能不够。解决方案采用混合搜索结合向量搜索和传统的关键词搜索如BM25取长补短。问题二模型回答出现“幻觉”编造信息。可能原因1检索到的上下文不足或无关。模型在缺乏信息时倾向于编造。解决方案加强检索环节的质量见问题一并在提示词中明确指令“仅根据提供的上下文回答如果上下文没有相关信息请回答‘根据已知信息无法回答该问题’。”可能原因2模型本身的知识与上下文冲突。如果上下文说A但模型训练数据认为B它可能更相信自己的知识。解决方案在系统指令中强调上下文的高优先级“请严格依据以下上下文信息即使它与你的通用知识相悖。”问题三响应速度慢用户体验差。可能原因1嵌入模型或LLM推理速度慢。解决方案考虑使用更轻量的嵌入模型或为开源LLM启用量化如GGUF格式、使用更快的推理引擎如vLLM, TensorRT-LLM。对于商用API检查是否是网络延迟。可能原因2检索范围过大。解决方案在检索时增加元数据过滤。例如为每个文本块添加“文档类型”、“章节”等标签检索时先过滤到相关章节再执行向量搜索。可能原因3未使用流式输出。对于长文本生成用户需要等待很久。解决方案务必使用API的流式响应功能实现打字机效果。问题四API调用成本失控。可能原因未对输入输出长度进行管控。解决方案在客户端或服务端对用户输入进行长度限制。在RAG中对检索到的长上下文进行智能摘要只送关键信息给LLM。实施用量配额和速率限制特别是对未认证的用户。定期审计日志分析高成本查询的模式进行优化。构建AI应用是一场充满挑战但回报丰厚的旅程。“liyupi/ai-guide”这份指南的价值在于它为你绘制了一张详实的地图标注了主要的路径、潜在的陷阱和必备的工具。它不会替你走完这条路但它能让你起步更稳方向更明。剩下的就是结合你自己的具体问题和数据去动手实践、调试和迭代。记住最好的学习方式永远是“在构建中学习”。从一个简单的、明确的小功能开始把它做透然后再逐步扩展复杂度。在这个过程中你会积累下最宝贵的经验——那些指南里不会写、只有亲手踩过坑才知道的实战心得。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2593878.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…