CPU本地大模型部署实战:Ollama量化技术与RAG应用指南

news2026/5/5 12:36:36
1. 项目概述为什么我们需要一个“CPU友好”的大模型部署方案如果你和我一样是个对AI充满好奇的开发者或学习者过去一年里肯定被各种大模型LLM的新闻刷屏了。从ChatGPT到Claude再到层出不穷的开源模型感觉不玩点大模型就跟不上时代了。但每次兴致勃勃地打开一个开源模型的GitHub页面准备在本地跑起来试试时迎面而来的往往是“建议使用至少16GB显存的NVIDIA GPU”这类要求瞬间就像被泼了一盆冷水。没错这就是大多数普通开发者和学生面临的现实困境我们没有顶级的GPU甚至很多朋友用的还是轻薄本或者MacBook Air只有集显。难道大模型的红利真的只属于那些拥有昂贵硬件资源的少数人吗handy-ollama这个项目就是为了打破这个壁垒而生的。它的核心目标非常明确让任何一台普通的个人电脑哪怕只有CPU也能轻松部署和运行大模型。这个由Datawhale社区发起的开源教程已经获得了Ollama官方的认可被收录为唯一的Tutorial项目这本身就证明了其价值和实用性。它不是一个简单的工具集合而是一套从零开始、手把手教你如何利用Ollama这个神器在本地搭建起属于你自己的大模型应用生态的完整指南。我花了几天时间把整个项目的文档和代码都过了一遍并且在自己的MacBook ProM1芯片无独立显卡和一台老旧的Windows笔记本i5-8250U上进行了实测。结果令人惊喜像Llama 3.2这样的70亿参数模型在CPU上也能跑出可用的响应速度进行代码生成、文本总结等任务完全可行。这不仅仅是“能跑”而是真正“能用”。接下来我就结合自己的实操经验为你深度拆解handy-ollama告诉你如何利用它把你的个人电脑变成一个大模型 playground。2. 核心思路拆解Ollama如何实现“CPU玩转大模型”在深入操作之前我们必须先搞清楚Ollama到底做了什么以及handy-ollama教程是如何围绕它构建知识体系的。这能帮你理解每一步操作背后的逻辑而不是机械地复制命令。2.1 Ollama的核心魔法模型量化与高效运行时Ollama之所以能成为“平民英雄”关键在于它对开源大模型做了两件至关重要的事模型量化Quantization这是最核心的技术。原始的LLM模型参数通常是32位或16位浮点数FP32/FP16非常占用内存和计算资源。Ollama内置了对GGUFGPT-Generated Unified Format格式模型的支持。GGUF是一种高效的模型格式它允许将模型权重从高精度如FP16量化到低精度如4位整数即Q4_0。你可以把量化想象成把一张高清无损图片原始模型转换成一张经过高度压缩但肉眼几乎看不出区别的JPEG图片量化模型。一个70亿参数的原始模型可能需要14GB以上的内存而经过4位量化后可能只需要4GB左右这直接让模型在消费级硬件上运行成为了可能。统一的运行时与管理Ollama提供了一个轻量级的服务。安装后它会常驻在后台默认端口11434统一管理模型的拉取、加载、运行和卸载。你不再需要为每个模型单独配置复杂的Python环境、处理CUDA版本冲突或者手动编写加载脚本。通过简单的命令行如ollama run llama3.2:3b它就能自动完成从网络拉取合适的量化模型、加载到内存、并启动一个交互式对话界面的全过程。这种“开箱即用”的体验极大地降低了使用门槛。2.2 handy-ollama教程的设计哲学从工具使用到应用开发这个教程的结构非常清晰遵循了“是什么 - 怎么用 - 怎么玩 - 怎么造”的学习路径基础层第一、二章解决“从无到有”的问题。详细讲解Ollama的概念以及在macOS、Windows、Linux三大主流平台和Docker环境下的安装配置。这部分确保了任何背景的读者都能在自己的机器上成功搭建起Ollama服务。进阶层第三、四章解决“个性化与集成”问题。教你如何导入自己的GGUF模型、更改模型存储路径对于SSD空间紧张的用户非常有用、甚至配置GPU加速如果你有幸有张显卡。更重要的是它系统讲解了Ollama的REST API并提供了Python、Java、JavaScript、C、Golang等多种语言的调用示例。这意味着你可以将Ollama作为后端服务集成到你用任何语言开发的应用中。应用层第五、六、七章解决“从模型到应用”的问题。这是教程的精华所在。它教你如何将Ollama与当今最流行的AI应用框架LangChain, LlamaIndex结合构建复杂的应用如可视化对话界面用FastAPI或现成的WebUI快速搭建一个类似ChatGPT的本地聊天网站。本地RAG检索增强生成应用让你能用自己的文档如PDF、TXT知识库来问答模型回答会基于你的文档更准确、更专业。本地智能体Agent让模型能够调用工具如计算器、搜索、执行代码完成更复杂的多步骤任务。集成到开发环境打造一个完全离线、隐私安全的本地AI编程助手Copilot。这个结构确保了学习者不仅能“跑起来一个模型”更能“用模型做出有价值的东西”完成从使用者到开发者的转变。3. 实战第一步跨平台安装与基础配置避坑指南理论说再多不如动手一试。我们以最常见的macOS和Windows环境为例带你走通安装流程并分享一些教程里可能没细说但实际会遇到的问题。3.1 macOSApple Silicon / Intel安装实录对于Mac用户尤其是M系列芯片的MacOllama的体验堪称完美因为其ARM架构与模型量化运行时高度优化。标准安装步骤打开终端Terminal。执行官方的一键安装命令curl -fsSL https://ollama.com/install.sh | sh安装完成后服务会自动启动。你可以通过ollama --version验证安装。我的实操心得与避坑点注意安装脚本可能会要求你输入密码以赋予必要的权限这是正常操作。模型存储位置默认情况下Ollama会把下载的模型放在~/.ollama/models目录下。对于硬盘空间紧张的Mac用户比如只有256GB SSD这是一个需要提前知晓的信息。教程第三章会教你怎么修改这个路径我建议在安装后第一时间查看这个文件夹的大小。首次运行模型运行ollama run llama3.2:3b来拉取并运行一个30亿参数的小模型进行测试。这里有个关键技巧首次拉取模型时由于网络原因可能会很慢甚至失败。如果遇到问题可以考虑使用终端代理如果具备相关条件为curl和后续下载配置代理环境变量。耐心重试几次或者选择在网络状况好的时候进行。查看官方模型库https://ollama.com/library有时会有不同的镜像标签。后台服务管理Ollama安装后会注册为启动项。如果你想手动停止或重启服务可以使用# 停止服务 ollama serve stop # 启动服务 ollama serve3.2 Windows安装与常见问题排查Windows的安装同样简单但环境复杂性更高容易遇到一些特有问题。标准安装步骤直接从官网https://ollama.com/下载.exe安装程序。双击运行按照向导完成安装。安装程序会自动将Ollama添加到系统路径并启动后台服务。打开PowerShell或CMD输入ollama --version验证。我的实操心得与避坑点防病毒软件/防火墙拦截这是Windows平台最常见的问题。在安装或首次运行ollama run时Windows Defender或第三方杀毒软件可能会弹出警告阻止Ollama访问网络或创建进程。务必选择“允许”或添加例外否则会导致模型下载失败或服务无法启动。使用PowerShell管理员身份部分操作尤其是涉及服务管理的建议在管理员模式的PowerShell中执行避免权限不足。检查服务状态如果觉得Ollama反应异常可以打开“任务管理器” - “服务”选项卡查找“Ollama”服务确保其状态是“正在运行”。你也可以在PowerShell中用命令Get-Service Ollama查看。内存不足问题Windows系统本身占用内存较多。在运行较大模型如70亿参数的Q4量化模型约需4-5GB内存前请确保你的可用物理内存至少有8GB以上。关闭不必要的浏览器标签和其他大型软件能有效提升运行稳定性。3.3 一个关键配置修改模型存储路径所有平台通用无论哪个平台模型文件都会占用大量空间。如果你像我一样系统盘是块小容量SSD那么把模型库移到机械硬盘或大容量SSD分区是必做操作。操作步骤以macOS/Linux为例Windows路径格式不同但原理一致首先停止Ollama服务ollama serve stop设置环境变量OLLAMA_MODELS。你可以将其添加到你的shell配置文件如~/.zshrc或~/.bashrc中实现永久生效。# 打开配置文件 nano ~/.zshrc # 在文件末尾添加一行路径请替换为你自己的目标路径 export OLLAMA_MODELS/Volumes/YourExternalDrive/ollama_models # 保存退出后使配置生效 source ~/.zshrc重新启动Ollama服务ollama serve之后所有新拉取的模型都会存储在新的路径下。注意之前已经拉取到默认路径的模型需要手动迁移过去或者删除后重新拉取。这个简单的配置能为你宝贵的系统盘节省出数十GB的空间非常实用。4. 核心玩法解析不止于命令行聊天很多人以为Ollama就是一个命令行聊天工具那就太小看它了。通过handy-ollama教程你可以解锁它的多种强大用法。4.1 模型管理像管理软件包一样管理模型Ollama的命令行设计非常直观模型管理是核心功能。拉取模型ollama pull model-name。例如ollama pull qwen2.5:7b会拉取通义千问2.5的70亿参数版本。你可以在官网Library查看所有可用模型。运行模型ollama run model-name进入交互式聊天。ollama run model-name “你的问题”则直接进行单次问答。列出本地模型ollama list查看所有已下载的模型。复制/删除模型ollama cp source destination可以复制模型创建新副本用于自定义修改。ollama rm model-name删除模型以释放空间。查看模型信息ollama show model-name --modelfile可以查看该模型的Modelfile配置这是自定义模型的基础。实操技巧尝试运行ollama run llama3.2:latest。latest标签会自动拉取该系列的最新版本目前是30亿参数。对于测试和快速体验来说用latest标签很方便但对于生产环境建议指定具体版本号如llama3.2:3b以保证行为一致。4.2 灵魂所在使用REST API进行编程集成这才是Ollama真正强大的地方。它提供了一个标准的HTTP API让你的任何程序都能与之对话。基础API调用示例使用Pythonrequests库import requests import json # 1. 生成对话 url http://localhost:11434/api/generate payload { model: llama3.2:3b, # 指定模型 prompt: 用Python写一个快速排序函数并加上注释。, stream: False # 设为True可以流式接收看到生成过程 } response requests.post(url, jsonpayload) result response.json() print(result[response]) # 2. 与模型进行多轮聊天保持上下文 url_chat http://localhost:11434/api/chat payload_chat { model: llama3.2:3b, messages: [ {role: user, content: 你好请介绍下你自己。}, {role: assistant, content: 我是由Meta AI开发的Llama 3.2模型...}, {role: user, content: 你刚才说你是由谁开发的} # 模型能记住上下文 ] } response_chat requests.post(url_chat, jsonpayload_chat) print(response_chat.json()[message][content])我的心得stream: true的妙用在开发Web应用时务必使用流式响应。这样你可以将模型生成的内容逐词chunk推送到前端实现类似ChatGPT的打字机效果用户体验好很多。处理流式响应需要稍微不同的代码逻辑教程的API章节有详细示例。参数调优API支持很多参数如temperature控制随机性越高越有创意越低越确定、top_p核采样、num_predict最大生成长度。根据你的任务调整这些参数能显著改善输出质量。例如写代码时temperature可以设低一点0.2写故事时可以设高一点0.8。4.3 高级自定义导入你自己的GGUF模型Ollama官方库的模型虽多但有时你需要一个特定的、未被收录的模型。这时就需要手动导入。步骤详解获取GGUF模型文件从Hugging Face等社区下载你需要的模型的GGUF格式文件如qwen2.5-7b-instruct-q4_0.gguf。创建Modelfile这是一个配置文件告诉Ollama如何加载你的模型。# Modelfile 示例 FROM ./qwen2.5-7b-instruct-q4_0.gguf # 指定GGUF文件路径可以是相对或绝对路径 # 设置参数 PARAMETER temperature 0.7 PARAMETER top_p 0.9 # 设置系统提示词塑造模型行为 SYSTEM 你是一个乐于助人的AI助手。 # 设置模板定义对话格式。对于Qwen模型通常使用其特定的模板 TEMPLATE {{ .System }} |im_start|user {{ .Prompt }}|im_end| |im_start|assistant {{ .Response }}|im_end| TEMPLATE是最容易出错的部分。不同的模型家族Llama, Qwen, Gemma, Phi等有自己约定的对话格式。用错模板会导致模型表现失常。最稳妥的方法是查阅该模型原生的仓库或文档找到其对话模板。handy-ollama教程的“自定义导入模型”章节提供了一些常见模型的模板示例。创建Ollama模型在Modelfile所在目录运行ollama create my-qwen -f ./Modelfile。这会创建一个名为my-qwen的本地模型。运行像使用官方模型一样使用它ollama run my-qwen。这个过程让你能驾驭几乎任何开源LLM极大地扩展了Ollama的能力边界。5. 构建真实应用从LangChain RAG到本地Copilot掌握了基础我们就可以玩些更酷的了。handy-ollama教程的第七章节提供了丰富的应用案例我挑两个最实用、复现度最高的来详细说说。5.1 案例一基于LangChain搭建本地知识库问答RAGRAG是目前让大模型“变得专业”的最主流技术。它的原理简单说就是先把你的本地文档公司手册、个人笔记、论文切片、转换成向量Embedding并存储当用户提问时先从向量库中检索出最相关的文档片段然后将这些片段和问题一起交给大模型让它基于这些“参考资料”生成答案。使用Ollama LangChain的实现骨架# 这是一个高度简化的示例展示核心流程 from langchain_community.document_loaders import TextLoader from langchain_text_splitters import RecursiveCharacterTextSplitter from langchain_community.embeddings import OllamaEmbeddings # Ollama也可以生成向量 from langchain_community.vectorstores import Chroma from langchain.chains import RetrievalQA from langchain_community.llms import Ollama # 1. 加载文档这里以txt为例也支持PDF, Word等 loader TextLoader(./my_docs/知识库.txt) documents loader.load() # 2. 分割文本 text_splitter RecursiveCharacterTextSplitter(chunk_size500, chunk_overlap50) texts text_splitter.split_documents(documents) # 3. 创建向量数据库。使用Ollama提供的嵌入模型 embeddings OllamaEmbeddings(modelnomic-embed-text) # 一个不错的开源嵌入模型 vectorstore Chroma.from_documents(documentstexts, embeddingembeddings, persist_directory./db) # persist_directory 参数会让数据持久化到磁盘下次无需重新处理 # 4. 创建检索器 retriever vectorstore.as_retriever(search_kwargs{k: 3}) # 检索最相关的3个片段 # 5. 创建LLM链使用Ollama的对话模型 llm Ollama(modelllama3.2:3b, temperature0) # 6. 创建问答链 qa_chain RetrievalQA.from_chain_type(llmllm, chain_typestuff, retrieverretriever) # 7. 提问 question 我们公司的年假政策是怎样的 answer qa_chain.invoke({query: question}) print(answer[result])实操避坑指南嵌入模型选择nomic-embed-text是Ollama官方推荐且效果较好的开源嵌入模型。首次运行OllamaEmbeddings时会自动拉取。确保你的Ollama服务正在运行。文本分割参数chunk_size块大小和chunk_overlap重叠长度是关键参数。块太小会丢失上下文太大会降低检索精度。对于一般文档500-1000的块大小和50-100的重叠是一个不错的起点需要根据你的文档内容调整。chain_type的选择stuff是最简单的方式它将所有检索到的文档片段直接拼接到提示词中。如果检索到的内容很多可能会超出模型上下文长度。对于大量文档可以考虑map_reduce或refine等更复杂但能处理长文本的链类型。持久化Chroma的persist_directory参数非常重要。首次处理文档生成向量库可能较慢但之后重启程序可以直接加载无需重复处理。5.2 案例二打造本地AI编程助手Copilot利用Ollama的API我们可以为VS Code、JetBrains全家桶等编辑器开发插件实现代码补全、解释、重构等功能。这里我以在VS Code中通过一个简单脚本调用本地模型为例展示核心思路。核心思路监听编辑器中的代码片段通过Ollama API发送提示词如“解释以下代码”、“为以下函数生成单元测试”并将返回结果插入编辑器或显示在侧边栏。一个简单的Python脚本示例可作为外部工具调用# local_copilot.py import sys import requests import json def ask_ollama(code_snippet, taskexplain): 向本地Ollama服务发送代码片段并请求任务 prompt_templates { explain: 请用中文解释以下代码的功能和逻辑\n\n{code}\n, comment: 请为以下代码添加详细的中文注释\n\n{code}\n, optimize: 请优化以下代码使其更高效或更Pythonic并说明原因\n\n{code}\n, debug: 请检查以下代码是否存在潜在错误或不良实践并给出修改建议\n\n{code}\n, } prompt prompt_templates.get(task, prompt_templates[explain]).format(codecode_snippet) response requests.post( http://localhost:11434/api/generate, json{ model: codellama:7b-code, # 专门用于代码的模型效果更好 prompt: prompt, stream: False, options: {temperature: 0.2} # 代码生成需要低随机性 } ) if response.status_code 200: return response.json()[response] else: return fError: {response.status_code} - {response.text} if __name__ __main__: # 假设通过命令行参数传递代码和任务 # 例如: python local_copilot.py $SELECTED_TEXT explain if len(sys.argv) 2: code sys.argv[1] task sys.argv[2] result ask_ollama(code, task) print(result) # 输出结果可由编辑器捕获 else: print(Usage: python local_copilot.py code_snippet task)如何在VS Code中集成将上述脚本保存为local_copilot.py。在VS Code中安装 “Code Runner” 或 “Runner” 这类扩展。配置该扩展添加一个自定义任务绑定到快捷键。任务内容就是运行这个Python脚本并将当前选中的文本作为参数传入。选中一段代码按下快捷键脚本运行结果会输出在VS Code的“输出”面板中。虽然这只是一个简陋的示例但它清晰地展示了将本地大模型深度集成到工作流中的可能性。基于这个思路你可以开发出功能更完整的插件。6. 性能调优与疑难排错实录在CPU上运行大模型性能是绕不开的话题。以下是我在实测中总结的一些优化技巧和常见问题的解决方法。6.1 提升推理速度与效率的技巧选择合适的模型尺寸与量化等级这是最重要的选择。参数越少、量化位数越低速度越快但能力可能下降。一个实用的选择策略是轻量级任务聊天、简单QA30亿参数3B模型如llama3.2:3b、qwen2.5:3b响应速度很快内存占用约2-3GB。中等任务代码生成、复杂总结70亿参数7B模型Q4量化如llama3.2:7b、qwen2.5:7b。这是性能与能力的较好平衡点内存占用约4-5GB。高量化等级尝试有些模型提供Q2、Q3的量化版本速度更快内存更小但输出质量下降明显建议仅用于对质量要求不高的场景或极限测试。调整Ollama运行参数通过环境变量或启动参数可以微调性能。控制线程数OLLAMA_NUM_PARALLEL或--num-parallel参数可以控制推理使用的CPU线程数。默认会使用所有可用线程。如果你的电脑还需要同时做其他工作可以适当调低此值以避免系统卡顿。批处理大小对于API调用如果一次发送多个请求Ollama内部可能会进行批处理以提升吞吐。但在交互式场景下意义不大。系统级优化关闭不必要的程序运行大模型时关闭浏览器、大型IDE等内存消耗大的软件。确保足够的虚拟内存/交换空间在Windows和Linux上如果物理内存不足系统会使用硬盘作为虚拟内存。确保你的系统盘有足够空间建议预留20GB以上否则可能在加载大模型时崩溃。Mac用户M系列芯片的统一内存RAM效率很高通常体验优于同内存大小的x86 Windows电脑。6.2 常见问题与解决方案速查表问题现象可能原因排查步骤与解决方案运行ollama run无反应或报错“连接被拒绝”Ollama后台服务未启动。1. 执行ollama serve手动启动服务。2. 检查11434端口是否被占用lsof -i :11434(macOS/Linux) 或netstat -ano | findstr :11434(Windows)。3. 重启电脑后重试。拉取模型时速度极慢或失败网络连接问题或下载源不稳定。1. 检查网络连接。2. 尝试使用网络状况更好的环境。3. 对于特定模型可以尝试寻找GGUF文件手动下载然后通过Modelfile从本地导入。运行模型时提示“内存不足OOM”模型所需内存超过可用物理内存交换空间。1. 运行ollama ps查看当前运行的模型及内存占用。2. 换用更小的模型如从7B换到3B或更低量化等级如从Q4换到Q2。3. 关闭其他占用内存的程序。4. 增加系统虚拟内存/交换空间大小。API调用返回空响应或乱码提示词Prompt格式可能与模型要求的对话模板不匹配。1. 对于自定义模型检查Modelfile中的TEMPLATE是否正确。2. 对于API调用尝试使用/api/chat端点并按照messages数组格式组织对话历史这通常比原始的/api/generate更稳定。3. 在简单测试时使用Ollama命令行直接运行模型看是否是模型本身的问题。模型回答质量差胡言乱语温度temperature参数过高或系统提示词SYSTEM设置不当。1. 在API调用或Modelfile中降低temperature值如设为0.1-0.3。2. 在Modelfile中设置一个明确、具体的SYSTEM提示词来约束模型行为例如“你是一个严谨的代码助手只回答与技术相关的问题。”3. 尝试不同的模型不同模型在相同任务上表现差异可能很大。6.3 我的深度使用体会经过一段时间的密集使用我对handy-ollama所代表的“CPU本地大模型”路线有了更深的体会。优势是显而易见的极致的隐私与安全所有数据都在本地无需担心敏感信息上传到云端。这对于处理公司内部文档、个人笔记或隐私数据来说是刚需。零成本推理一旦模型下载完成后续使用不再产生任何API费用。对于个人学习、频繁测试或开发原型来说经济压力为零。可定制性极强你可以随意混合搭配模型、嵌入模型、向量数据库和应用框架打造完全符合自己需求的工作流。离线可用在没有网络的环境下如飞机、偏远地区依然能使用这是一个被低估但非常重要的优点。当然局限性也需要客观看待性能瓶颈在复杂任务上CPU推理的速度和云端GPU集群相比有数量级的差距。生成长篇文本或进行复杂链式思考时等待时间可能较长。模型能力上限能在CPU上流畅运行的大多是70亿参数以下的模型。虽然这些模型能力已经很强但在需要深度推理、复杂数学计算或高度创造性的任务上与GPT-4、Claude 3等顶级闭源模型仍有差距。技术复杂度虽然Ollama降低了部署门槛但要构建一个稳定、高效、美观的完整应用比如一个带用户管理的RAG系统仍然需要全栈开发能力包括后端API设计、前端交互、数据处理管道等。给不同读者的建议对于初学者和学生handy-ollama是你的绝佳起点。按照教程顺序先确保模型能在命令行跑起来然后尝试用API写个小脚本最后挑战一个RAG应用。这个过程能帮你扎实地理解大模型应用的底层逻辑比单纯调用云端API学到的多得多。对于有一定经验的开发者重点研究第四、五、七章。将Ollama视为一个廉价的、本地的“模型微服务”思考如何将它嵌入到你现有的项目中替代一部分简单的云端AI调用以降低成本或提升隐私性。对于创业者或产品经理可以用它来快速验证AI功能的产品原型MVP成本极低。当原型得到市场验证后再考虑是否迁移到更强大的云端模型或自行搭建GPU服务器。最后这个项目本身也在快速迭代中。Ollama生态和开源模型社区日新月异新的、更强大的小尺寸模型如DeepSeek-R1, Qwen2.5和更高效的推理技术不断涌现。保持关注时常回来看看教程的更新你会发现这条“CPU本地大模型”的道路正越走越宽。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2584992.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…