Home Assistant本地LLM集成指南:隐私与响应速度的双重提升

news2026/5/8 9:35:34
1. 项目概述让智能家居的“大脑”真正本地化如果你正在使用Home AssistantHA来构建自己的智能家居系统并且对其中那些需要调用云端API的“智能”功能比如语音助手对话、意图理解感到一丝不安——无论是出于隐私顾虑、网络延迟还是单纯想摆脱对外部服务的依赖——那么skye-harris/hass_local_openai_llm这个项目很可能就是你一直在寻找的答案。简单来说这是一个为Home Assistant设计的“本地大语言模型LLM集成”。它让你能把像GPT-3.5/4那样强大的对话和推理能力直接部署在你自己的硬件上比如一台NAS、一台闲置的迷你主机甚至是树莓派上。从此你的智能家居“大脑”不再需要把你说的话、你的生活习惯数据发送到遥远的云端服务器去处理一切计算都在你的家庭网络内部完成。这不仅仅是隐私的胜利更意味着响应速度的极致提升和功能可用性的根本保障即使外网断了你的智能对话助手依然能工作。我最初关注这个项目是因为受够了云端语音助手的“网络开小差”。一句简单的“打开客厅灯”有时要等上两三秒才有反应体验非常割裂。而将LLM本地化后从语音输入到HA执行指令延迟可以压缩到毫秒级那种“即说即得”的流畅感才是智能家居该有的样子。skye-harris/hass_local_openai_llm项目巧妙地利用了Home Assistant的“OpenAI对话”集成框架但将其后端从官方的api.openai.com替换成了你自己搭建的、兼容OpenAI API协议的本地LLM服务。这样一来你无需修改HA的核心配置就能无缝享受到本地化带来的所有好处。2. 核心架构与工作原理拆解要理解这个项目如何工作我们需要先拆解Home Assistant中“智能”功能的典型处理流程然后再看本项目是如何“偷梁换柱”的。2.1 Home Assistant的对话处理管道在标准的HA配置中当你使用语音助手或文本输入与系统交互时数据流大致如下语音识别STT将你的语音转换为文本。这可以在本地如Vosk或云端Google Speech-to-Text完成。意图识别与处理LLM这是最核心的一步。HA需要理解这段文本的意图。例如“把客厅的灯调暗一点”意味着找到“客厅”这个区域下的“灯”实体并执行“调暗”操作。传统方法使用复杂的规则和模板而OpenAI集成则利用大语言模型强大的自然语言理解能力直接将自然语言转换为HA可执行的指令。指令执行HA根据LLM输出的结构化指令如调用哪个服务、传递什么参数来操作设备。文本转语音TTS将执行结果或对话回复转换为语音播报出来。hass_local_openai_llm项目介入的正是第二步。Home Assistant官方提供了一个“OpenAI对话”集成它预设了向api.openai.com发送请求。本项目的作用是告诉HA“别去找OpenAI了我家里就有一个‘小OpenAI’地址是http://localhost:8000你用同样的方式跟它说话就行。”2.2 项目的“桥梁”角色与兼容性设计这个项目本身不是一个完整的LLM而是一个配置包和适配器。它的核心是一个configuration.yaml的配置片段和相关的自定义组件说明。其设计精髓在于100%的API兼容性。它要求你本地部署的LLM服务必须提供一个与OpenAI官方Chat Completions API完全兼容的接口。这意味着什么意味着任何能够部署成兼容OpenAI API的服务的大语言模型都可以通过这个项目接入HA。目前社区主流的选择包括Ollama这是目前最热门、最简单的本地LLM运行方案。它内置了数十种优化好的模型如Llama 3、Mistral、Qwen等一键拉取、运行并自动提供兼容OpenAI的API端点。LM Studio一个功能强大的桌面应用程序同样可以轻松加载GGUF格式的模型并提供本地API。text-generation-webuiOobabooga功能极其丰富的Web UI支持多种后端和模型格式也提供OpenAI兼容的API扩展。自建vLLM或llama.cpp服务器对于有更高性能要求和定制化需求的高级用户可以使用这些推理框架自行搭建API服务。项目的配置会修改HA中OpenAI集成的api_key和base_url等参数。通常它会将api_key设置为一个非空的任意字符串因为本地服务可能不需要鉴权但HA的集成可能要求该字段非空而将base_url指向你的本地服务地址例如http://192.168.1.100:11434/v1Ollama的默认API地址。注意这里有一个关键细节。许多本地LLM服务为了简化其API路径可能与OpenAI官方略有不同。例如OpenAI的聊天补全接口是/v1/chat/completions。你需要确保你的本地服务地址指向了正确的v1根路径或者根据服务文档进行相应调整。hass_local_openai_llm的文档通常会给出针对Ollama等流行工具的示例配置。2.3 硬件需求与模型选型考量本地运行LLM硬件是绕不开的话题。你不需要顶级的游戏显卡但需要合理的配置。CPU vs. GPU纯CPU推理可以运行但速度较慢适合小模型如7B参数以下和简单指令。要获得可接受的交互速度响应时间在2-5秒内一块具有足够显存的GPU是更好的选择。内存RAM与显存VRAM这是模型能否运行的决定性因素。一个通用的估算公式是模型参数量单位Bx 精度单位字节≈ 所需内存/显存。例如一个7B参数的模型如果用FP162字节精度加载需要大约14GB显存。这是大多数消费级显卡如RTX 4060 Ti 16GB的极限。为了在有限资源下运行更大的模型社区普遍采用**量化Quantization**技术。例如将模型量化为4位精度如GGUF格式的Q4_K_M7B模型可能只需要4-5GB显存13B模型约8-10GB。量化会轻微损失精度但对于智能家居的指令理解任务Q4或Q5级别的量化模型通常已完全够用。推荐配置入门/体验级树莓派4/5 CPU推理 2B以下小模型如TinyLlama。响应可能较慢10秒以上适合技术验证。实用级具备至少8GB显存的NVIDIA显卡如RTX 3060 12GB, RTX 4060 Ti 16GB 7B量化模型如Llama 3 8B Instruct Q4。这是目前性价比最高的选择能提供流畅的交互体验。舒适级24GB以上显存如RTX 3090/4090 13B-20B量化模型。理解能力更强能处理更复杂的多轮对话和场景推理。模型选型心得对于智能家居场景模型的对齐Instruction Tuning和推理Reasoning能力比单纯的“知识量”更重要。推荐优先选择优秀的指令微调模型如Llama 3 Instruct、Mistral Instruct、Qwen 2.5 Instruct系列的量化版本。它们的“听话”程度和遵循指令的能力更强能更准确地输出HA需要的结构化JSON而不是一段散文式的回答。3. 从零开始的完整部署与配置指南假设我们选择Ollama作为本地LLM服务因为它部署最简单生态最好。我们的目标是在一台运行了Home Assistant OS或Supervised安装的设备上通过Docker安装Ollama并将其接入HA。3.1 第一步部署Ollama服务如果你的HA是通过Docker安装的那么通过Portainer或命令行添加一个Ollama容器非常方便。通过Docker命令部署docker run -d \ --nameollama \ --restartunless-stopped \ -v ollama:/root/.ollama \ -p 11434:11434 \ ollama/ollama-v ollama:/root/.ollama将模型数据持久化到名为ollama的Docker卷中避免容器重启后模型丢失。-p 11434:11434将容器的11434端口映射到宿主机。Ollama的API和WebUI都运行在这个端口。容器启动后你可以通过http://你的HA主机IP:11434访问Ollama的简单Web界面确认服务已运行。拉取并运行一个量化模型通过进入容器内部或使用Ollama的REST API来拉取模型。这里以命令行方式为例# 进入容器 docker exec -it ollama bash # 在容器内拉取并运行一个模型例如 Llama 3.2 7B 指令微调版的3位量化版本 ollama run llama3.2:7b-instruct-q3_K_M首次运行会下载模型耗时取决于你的网络。下载完成后模型会自动加载并进入一个交互式聊天界面。你可以先输入/bye退出。模型现在已存在于本地并且Ollama服务会使其在后台可用。验证API兼容性Ollama默认就提供了OpenAI兼容的API端点。发送一个测试请求来验证curl http://localhost:11434/v1/chat/completions \ -H Content-Type: application/json \ -d { model: llama3.2:7b-instruct-q3_K_M, messages: [ { role: user, content: Hello, how are you?} ], stream: false }如果收到一个包含content字段的JSON响应说明API工作正常。3.2 第二步配置Home Assistant集成现在我们需要将skye-harris/hass_local_openai_llm的配置应用到HA中。通常这个项目会提供一个configuration.yaml的配置示例。获取配置访问该项目的GitHub仓库查看README或示例文件。核心配置部分通常如下所示# configuration.yaml 片段 conversation: intents: # 可以自定义一些意图模板非必须 openai_conversation: api_key: local-key # 本地服务不需要真实key但字段不能为空 base_url: http://192.168.1.100:11434/v1 # 替换为你的Ollama服务地址 model: llama3.2:7b-instruct-q3_K_M # 替换为你拉取的模型名关键点base_url末尾的/v1至关重要。Ollama的OpenAI兼容API位于/v1路径下。api_key可以任意填写如local、dummy-key。修改配置将上述配置片段合并到你的HA主配置文件configuration.yaml中。如果你使用了文件编辑器插件如File Editor操作会非常方便。重启Home Assistant保存配置后前往HA的“设置” - “系统” - “重启”重启HA核心服务以使配置生效。验证集成重启后进入“设置” - “设备与服务” - “集成”。你应该能看到“OpenAI对话”这个集成它可能显示为“OpenAI”。点击进入检查其配置确认“服务器地址”和“模型”已更新为你本地的设置。3.3 第三步配置自动化与脚本实现智能对话集成配置好后LLM本身并不会自动工作。你需要通过HA的自动化、脚本或直接调用服务来使用它。最直接的方式使用“辅助元素”创建对话实体。进入“设置” - “设备与服务” - “辅助元素”。点击“创建辅助元素”选择“对话”。在“对话代理”中选择你刚刚配置好的“OpenAI对话”集成。为它起一个名字比如“本地智能助手”。保存后你会得到一个名为conversation.local_智能助手的实体。现在你可以通过多种方式与它交互开发者工具进入“开发者工具” - “服务”调用服务conversation.process。在“数据”中填写text: 打开客厅的灯 agent_id: conversation.local_智能助手点击“调用服务”观察HA的日志和你的灯是否被打开。仪表盘卡片在仪表盘编辑器中添加一个“对话”卡片或“文本框”实体卡片关联到这个对话实体就可以在界面上直接输入文本交互。与语音助手结合这是终极目标。你需要一个本地STT服务如Whisper将语音转为文本然后通过自动化将文本传递给conversation.process服务最后用TTS播报结果。这涉及到更复杂的自动化流程但hass_local_openai_llm解决了其中最核心的LLM部分。一个简单的自动化示例将语音输入文本发送给本地LLM假设你有一个input_text.voice_command实体来接收STT的结果。automation: - alias: 处理语音命令 trigger: platform: state entity_id: input_text.voice_command action: - service: conversation.process data: text: {{ states(input_text.voice_command) }} agent_id: conversation.local_智能助手 - service: input_text.set_value target: entity_id: input_text.voice_command data: value: # 清空输入框准备接收下一条命令4. 核心功能实现与高级调优基础功能跑通后我们可以深入挖掘如何让这个本地LLM更好地为智能家居服务。4.1 优化提示词工程Prompt EngineeringHA的OpenAI集成在调用LLM时会发送一个预设的系统提示词System Prompt用于指导模型如何以HA能理解的格式回答。默认的提示词可能不够优化。hass_local_openai_llm项目有时会提供一个优化过的提示词模板。你可以在openai_conversation配置中自定义promptopenai_conversation: api_key: local-key base_url: http://192.168.1.100:11434/v1 model: llama3.2:7b-instruct-q3_K_M prompt: | 你是一个家庭助理。用户会以自然语言描述他们的需求。 你的任务是将这些需求转化为精确的JSON指令。 可用的服务有light.turn_on, light.turn_off, light.toggle。 可用的实体有light.living_room, light.bedroom。 请严格按照以下JSON格式回复不要添加任何其他解释 {service: 服务名, entity_id: 实体ID, data: {attribute: value}} 如果无法理解或没有对应服务回复{error: 无法处理该请求}优化提示词是提升本地LLM表现最有效的手段之一。要点包括明确角色和任务告诉模型“你是一个家庭助理”。限制输出格式强制要求JSON输出这是HA能解析的关键。提供上下文列出当前HA系统中关键的实体和服务帮助模型做出正确选择。你可以通过HA的模板{{ states | list }}和{{ services | list }}动态生成这部分列表但这需要更高级的配置如使用Jinja2模板生成配置文件。处理未知请求定义好错误或无法处理的回复格式。4.2 处理复杂场景与多轮对话简单的开关灯指令很容易。但用户可能会说“我有点冷”或者“客厅太亮了”。这就需要LLM进行一定的推理并将其转化为具体操作比如打开暖气或调暗灯光。更复杂的场景如“等我到家时把空调开到23度并播放轻音乐”这涉及到条件触发和多个动作序列。为了处理这些你需要在提示词中注入场景逻辑例如在提示词中加入“如果用户表达‘冷’、‘热’、‘亮’、‘暗’等感觉将其关联到相应的设备暖气、空调、灯光和操作调高温度、调低亮度。”利用HA的脚本Script和场景Scene不要让LLM直接调用一堆基础服务。而是在HA中预先定义好复杂的脚本或场景。例如创建一个名为script.arrive_home的脚本里面包含了开空调、放音乐等一系列动作。然后在提示词中告诉LLM“当用户表达‘到家’意图时调用script.arrive_home。”这样LLM只需要输出{service”: “script.turn_on”, “entity_id”: “script.arrive_home”}大大降低了它的任务难度和出错率。状态感知一个真正智能的助手应该知道当前设备的状态。这可以通过在提示词中动态插入当前状态来实现同样需要复杂的模板。例如在每次对话时系统提示词里都包含一句“当前客厅灯光状态是{{ states(‘light.living_room’) }}”。这样当用户说“关灯”时如果灯已经是关的模型可以回复“灯已经关了”而不是再去执行一次关灯操作。4.3 性能调优与资源管理本地LLM是资源消耗大户需要妥善管理。模型卸载Ollama支持在模型空闲一段时间后自动将其从GPU显存中卸载以释放资源。可以通过环境变量OLLAMA_KEEP_ALIVE如设置为5m或修改Ollama的配置文件来设置。上下文长度Context Length智能家居对话通常很短不需要很长的上下文。在Ollama中运行模型时可以通过参数--num-ctx 1024来限制上下文长度这能显著减少内存占用和计算量。对于7B模型1024或2048的上下文窗口通常足够。服务健康检查与重启编写一个简单的自动化或监控脚本定期检查Ollama服务的API端点是否健康。如果失败则自动重启Docker容器。这可以确保服务的长期稳定性。负载隔离如果你的HA主机性能吃紧可以考虑将Ollama服务部署在局域网内的另一台性能更强的机器上如一台旧的游戏PC。只需将配置中的base_url改为那台机器的IP地址即可。这样可以将计算负载从HA核心系统中分离出去。5. 常见问题排查与实战心得在实际部署和使用过程中你几乎一定会遇到下面这些问题。5.1 问题排查速查表问题现象可能原因排查步骤与解决方案HA重启后OpenAI集成报错“无法连接”1. Ollama容器未启动或启动失败。2. 网络防火墙阻止了HA容器与Ollama容器的通信。3.base_url配置错误。1. 运行docker ps检查Ollama容器状态。用docker logs ollama查看日志。2. 如果HA和Ollama不在同一Docker网络确保端口映射正确。尝试在HA容器内用curl测试Ollama的API地址。3. 仔细检查base_url确保IP、端口和/v1路径正确。调用服务后HA日志显示LLM返回了非JSON内容1. 模型没有遵循提示词格式。2. 提示词定义不够严格。3. 模型能力不足。1. 去Ollama的API或WebUI直接测试相同的提示词看原始输出是什么。这能隔离HA的问题。2. 强化提示词使用“必须”、“只能”、“严格按照”等词并给出更清晰的JSON示例。3. 换一个指令遵循能力更强的模型如Llama 3 Instruct或Mistral Instruct。响应速度极慢30秒1. 硬件资源不足CPU/GPU。2. 模型太大或未量化。3. 上下文长度设置过长。1. 使用nvidia-smiGPU或htopCPU监控资源使用率。2. 换用更小的或量化等级更高的模型如从Q4换到Q3。3. 在运行模型时限制上下文长度如ollama run llama3.2:7b-instruct-q3_K_M --num-ctx 1024。模型理解意图错误如把“开灯”理解为“打开音乐”1. 提示词中提供的实体/服务列表不准确或缺失。2. 模型在特定领域知识上训练不足。1. 在提示词中动态或静态地列出最常用的、准确的实体ID和服务名。2. 考虑对模型进行轻量级的微调LoRA用你自己的HA实体名称和习惯用语作为训练数据但这属于高级操作。多轮对话中模型忘记之前的内容1. HA的对话集成默认可能未开启多轮对话上下文记忆。2. Ollama服务端上下文被重置。1. 检查OpenAI对话集成的配置看是否有“保持对话”或“上下文长度”的选项。2. 确保调用API时将之前的对话历史作为messages数组的一部分发送给模型。HA集成可能默认会处理这个需要检查其实现。5.2 实操心得与避坑指南从最小的、量化过的模型开始不要一上来就尝试运行13B或34B的模型。先用一个2B或3B的小模型如Phi-3-mini, TinyLlama把整个流程跑通。验证API连通性、配置正确性和基础意图理解。然后再逐步升级到更大、能力更强的模型同时观察硬件负载。Ollama的“Modelfile”是利器Ollama允许你通过编写Modelfile来自定义模型。你可以基于一个基础模型为其注入固定的系统提示词。这样每次加载这个自定义模型时它都已经内置了针对HA优化的指令无需在HA配置中写很长的提示词。例如创建一个名为my-ha-assistant的模型# Modelfile FROM llama3.2:7b-instruct-q3_K_M SYSTEM “””你是一个家庭助理...你的完整提示词放在这里”“”然后通过ollama create my-ha-assistant -f ./Modelfile创建并在HA配置中指定model: “my-ha-assistant”。日志是你的好朋友开启HA和Ollama的详细日志。在HA的configuration.yaml中为openai_conversation和logger组件增加调试级别日志可以让你看到发送给LLM的精确请求和收到的原始响应这对于调试提示词和解析错误至关重要。隐私与安全的最后一道防线虽然数据不出本地但也要注意内部安全。如果你的Ollama API端口如11434暴露在局域网甚至公网且没有设置任何认证那么局域网内的任何设备都可以使用你的LLM服务。建议使用Docker的内部网络network_mode: host或自定义网络仅让HA容器能访问Ollama。或者为Ollama配置简单的API密钥认证部分启动参数或第三方中间件支持。定期更新Ollama和模型以获取安全补丁。将大语言模型本地化并集成到Home Assistant中是一次极具成就感的探索。它不仅仅是一个技术实现更代表着对智能家居控制权、数据隐私和响应体验的彻底掌控。从最初的模型选型、硬件挣扎到提示词的精雕细琢再到最终实现毫秒级的本地语音控制整个过程就像在亲手为自己的家锻造一个专属的、忠诚的“数字管家”。skye-harris/hass_local_openai_llm这个项目提供了绝佳的起点和桥梁。我个人的体会是最大的挑战往往不是技术本身而是在有限的硬件资源下找到模型能力、响应速度和稳定性的最佳平衡点。多花时间在提示词工程和利用HA脚本简化LLM任务上其收益远大于盲目追求更大的模型。当你对助手说“有点暗了”而灯光立刻柔和地亮起且没有任何数据离开你的房间时你就会觉得这一切的折腾都是值得的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2594364.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…