KendaliAI:让大语言模型安全操控本地设备的开源框架实战

news2026/5/7 18:40:36
1. 项目概述当AI遇到本地化控制最近在折腾智能家居和自动化流程时我一直在寻找一个能真正“理解”我意图并能直接、安全地控制我本地设备的AI助手。市面上的大语言模型LLM能力很强但大多停留在“聊天”和“生成内容”的层面想要让它帮我关个灯、查一下服务器日志或者执行一个本地的Python脚本中间总隔着一道厚厚的墙。要么需要复杂的API对接和云服务要么就涉及到隐私和安全风险。直到我遇到了KendaliAI这个项目它的名字“Kendali”在印尼语中就是“控制”的意思这精准地戳中了我的痛点一个旨在让大型语言模型如GPT、Claude、本地部署的Llama等能够安全、可靠地执行本地计算机操作的开源框架。简单来说KendaliAI 扮演的是一个“AI操作系统的桥梁”角色。它不是一个独立的AI模型而是一套工具和协议。它的核心思想是让AI模型不仅能“说”还能“做”。你通过自然语言给AI下达一个指令比如“帮我找出昨天日志里所有的错误信息”KendaliAI 会解析这个指令将其转化为计算机可以理解的具体操作例如执行一个特定的grep命令或Python脚本安全地执行它并将结果返回给AI最终由AI以人类可读的方式总结给你。整个过程你的数据、你的命令执行都在你自己的机器上完成无需经过第三方服务器这对于处理敏感数据或要求低延迟的自动化任务至关重要。这个项目适合谁呢我认为有三类朋友会特别感兴趣一是开发者与运维工程师可以用它来构建智能化的运维助手用自然语言管理服务器、查询状态、部署服务二是效率工具爱好者与极客希望用语音或聊天界面深度集成并自动化控制自己的电脑、智能家居中枢如Home Assistant、媒体库等三是AI应用创业者或研究者正在探索AI智能体Agent的落地场景KendaliAI 提供了一个现成的、可扩展的“执行层”解决方案。接下来我就结合自己深度使用和改造的经验带你彻底拆解这个项目。2. 核心架构与设计哲学解析2.1 安全第一的执行沙箱KendaliAI 最让我欣赏的设计就是它对安全性的极致考量。让AI直接执行系统命令听起来就让人头皮发麻。一个错误的解析比如把“删除临时文件”解析成rm -rf /那就是灾难。因此项目的基石是一个严格的权限隔离与沙箱机制。它并非让AI进程直接拥有用户权限。相反KendaliAI 核心服务运行在一个受限的上下文中所有具体的操作执行都通过一个明确的“工具”Tools系统来中介。每个工具都需要预先定义明确声明其所需的参数、执行的操作以及安全等级。例如安全工具read_file读文件、get_current_time获取时间这些几乎无风险。受限工具execute_shell执行Shell命令、run_python_script运行Python脚本这些需要明确授权并且可以在沙箱环境中运行。危险工具任何涉及删除、修改系统关键文件、安装软件的操作默认是关闭的需要用户显式地在配置中启用甚至可能需要额外的二次确认。在实际部署时我强烈建议为KendaliAI创建一个专用的系统用户并利用Linux的cgroups、namespaces或 Docker 容器来构建执行沙箱。KendaliAI 的官方示例提供了Docker配置它可以将危险的操作隔离在容器内即使命令出错也只会影响容器内部不会波及宿主机。这是你在生产环境中必须考虑的底线。2.2 模块化与可扩展的工具链KendaliAI 不强求你使用某一种特定的AI模型。它通过清晰的API接口与AI模型对话。无论是通过OpenAI的API调用GPT-4还是本地部署的Llama 3通过Ollama提供API服务甚至是Claude的API只要它们遵循类似的聊天补全接口都可以接入。这带来了巨大的灵活性你可以根据任务复杂度、响应速度要求和预算自由选择“大脑”。它的核心能力来源于其“工具包”。项目内置了一些基础工具比如文件读写、执行Shell命令、HTTP请求等。但它的强大之处在于极简的工具扩展机制。定义一个工具本质上就是写一个Python函数并用装饰器声明其元数据名称、描述、参数schema。例如我想让它能控制我的Home Assistant我只需要写一个类似下面的函数from kendaliai_sdk import tool import requests tool def control_light(entity_id: str, state: str): 控制Home Assistant中的灯光。 Args: entity_id: 灯的实体ID例如 light.living_room state: 希望的状态on 或 off ha_url http://你的HA地址:8123/api headers {Authorization: Bearer YOUR_TOKEN} data {entity_id: entity_id, state: state} response requests.post(f{ha_url}/services/light/turn_{state}, headersheaders, jsondata) return {success: response.status_code 200}然后将这个工具注册到KendaliAI。下次我对AI说“打开客厅的灯”AI就能理解并调用这个control_light函数。通过这种方式你可以将任何本地服务、内部API、数据库查询都封装成工具快速赋予AI操控现实世界的能力。2.3 工作流与状态管理对于复杂任务单次指令可能不够。KendaliAI 支持简单的多轮对话与状态记忆。AI模型可以规划步骤依次调用多个工具。例如任务“备份我的项目目录并压缩上传到NAS”可能被分解为1. 调用list_files查看项目目录2. 调用execute_shell执行tar压缩命令3. 调用scp_file工具上传文件。项目内部会维护一个会话上下文包含之前的对话历史和工具执行结果。AI模型可以根据这些历史信息来决定下一步操作。虽然它目前还不是一个完整的、具备复杂规划能力的智能体框架但这种基础的状态管理对于实现连贯的自动化任务已经足够。3. 从零开始的部署与核心配置实战3.1 环境准备与依赖安装KendaliAI 的核心是一个Python服务。部署的第一步是准备好Python环境。我个人的习惯是使用conda或venv创建独立的虚拟环境避免依赖冲突。# 1. 克隆仓库 git clone https://github.com/haslab-dev/KendaliAI.git cd KendaliAI # 2. 创建并激活虚拟环境 (以venv为例) python -m venv venv source venv/bin/activate # Linux/macOS # venv\Scripts\activate # Windows # 3. 安装核心依赖 pip install -r requirements.txt这里有个关键点requirements.txt里的版本。AI生态迭代很快有时直接安装可能会遇到库版本冲突。如果遇到问题我的经验是先确保openai、pydantic、fastapi这几个核心库的版本与你的Python版本建议3.9兼容。可以尝试先安装一个较稳定的版本组合。3.2 核心配置文件详解KendaliAI 的魔力很大程度上来自于它的配置文件通常是config.yaml或.env文件。这是连接AI大脑和本地工具的枢纽必须仔细配置。# config.yaml 示例 kendalai: server: host: 0.0.0.0 # 服务监听地址 port: 8000 # 服务端口 ai: provider: openai # 或 ollama, anthropic等 model: gpt-4-turbo-preview # 使用的模型名称 api_key: ${OPENAI_API_KEY} # 建议从环境变量读取 base_url: https://api.openai.com/v1 # 如果是本地模型需修改 security: allowed_tools: [read_file, execute_shell_safe, http_request] # 明确允许的工具列表 sandbox_enabled: true # 启用Docker沙箱 sandbox_image: kendalai/sandbox:latest # 沙箱容器镜像 tools: # 自定义工具的配置项例如 home_assistant: url: http://192.168.1.100:8123 token: ${HA_TOKEN}关键配置解析与避坑指南AI提供商选择如果使用本地模型如通过Ollama部署的Llama 3将provider设为ollamabase_url设为http://localhost:11434/v1api_key可留空或填ollama。务必确认你的本地模型服务已启动且API兼容OpenAI格式。API密钥管理绝对不要将api_key等敏感信息硬编码在配置文件中提交到Git。务必使用环境变量如${OPENAI_API_KEY}并在部署时注入。可以用dotenv包来管理。工具白名单allowed_tools是重要的安全阀。初期只开放最安全的工具如read_file、get_time。execute_shell这类工具建议使用项目提供的安全版本如execute_shell_safe它可能对命令做了过滤或限制。对于自定义的危险工具启用前务必三思。沙箱配置生产环境强烈建议启用沙箱。你需要提前构建或拉取沙箱镜像。项目仓库中通常会有Dockerfile.sandbox。执行docker build -t kendalai/sandbox:latest -f Dockerfile.sandbox .来构建。确保宿主机上的Docker服务运行正常且运行KendaliAI服务的用户有权限操作Docker。3.3 服务启动与初步测试配置完成后启动服务就很简单了。python main.py # 或者使用生产级ASGI服务器如uvicorn uvicorn app:app --host 0.0.0.0 --port 8000 --reload服务启动后你会看到输出信息提示服务运行在http://0.0.0.0:8000。首先访问http://localhost:8000/docs这里是自动生成的OpenAPI文档界面你可以在这里看到所有可用的API端点并直接进行测试。最关键的端点是/v1/chat/completions它模拟了OpenAI的聊天接口。你可以用curl或任何HTTP客户端如Postman进行测试curl -X POST http://localhost:8000/v1/chat/completions \ -H Content-Type: application/json \ -d { model: gpt-4-turbo-preview, messages: [{role: user, content: 列出当前目录下所有的.txt文件}], tools: [{type: function, function: {name: list_files, description: 列出文件}}] # 工具列表由服务端提供这里仅为示例格式 }如果一切正常你会收到一个JSON响应其中AI可能会要求调用list_files工具或者直接返回结果如果它“认为”不需要工具。第一次测试建议从一个简单的、不需要工具的问题开始比如“你好”以确保AI基础连接是通的。4. 深度定制打造你的专属AI控制中枢4.1 开发自定义工具的完整流程内置工具只是开始真正的威力在于自定义工具。下面我以一个实战案例——让AI监控服务器磁盘空间并自动清理日志——来演示全流程。第一步明确工具功能与参数我们想要两个工具check_disk_usage检查指定路径的磁盘使用率。clean_old_logs清理指定目录中超过N天的日志文件。第二步编写工具函数在项目目录下创建一个新文件my_tools.py。# my_tools.py import os import shutil from datetime import datetime, timedelta from kendaliai_sdk import tool tool def check_disk_usage(path: str /) - dict: 检查指定路径的磁盘使用情况。 Args: path: 要检查的路径默认为根目录。 Returns: 包含总空间、已用空间、使用率等信息的字典。 try: usage shutil.disk_usage(path) total_gb usage.total / (1024**3) used_gb usage.used / (1024**3) percent (usage.used / usage.total) * 100 return { path: path, total_gb: round(total_gb, 2), used_gb: round(used_gb, 2), free_gb: round(usage.free / (1024**3), 2), usage_percent: round(percent, 2) } except Exception as e: return {error: f检查磁盘使用情况失败: {str(e)}} tool def clean_old_logs(log_dir: str, days_old: int 7) - dict: 清理指定目录中早于指定天数的日志文件。 Args: log_dir: 日志目录的绝对路径。 days_old: 保留最近多少天的日志默认为7天。 Returns: 包含清理文件列表和数量的字典。 if not os.path.isdir(log_dir): return {error: f目录不存在: {log_dir}} cutoff_time datetime.now() - timedelta(daysdays_old) deleted_files [] error_files [] for root, dirs, files in os.walk(log_dir): for file in files: if file.endswith(.log): file_path os.path.join(root, file) try: file_mtime datetime.fromtimestamp(os.path.getmtime(file_path)) if file_mtime cutoff_time: os.remove(file_path) deleted_files.append(file_path) except Exception as e: error_files.append(f{file_path}: {str(e)}) return { log_dir: log_dir, days_old: days_old, deleted_count: len(deleted_files), deleted_files: deleted_files[:10], # 避免返回过多数据 error_count: len(error_files), errors: error_files[:5] }第三步注册工具需要在主应用初始化的地方导入并注册这些工具。通常是在app.py或类似的主文件中。# 在 app.py 中 from my_tools import check_disk_usage, clean_old_logs # 假设有一个工具管理器实例 tool_manager tool_manager.register(check_disk_usage) tool_manager.register(clean_old_logs)第四步更新安全配置在config.yaml的security.allowed_tools列表中添加新工具的名称check_disk_usage和clean_old_logs。对于clean_old_logs这种删除操作务必谨慎可以先在测试环境中运行。第五步测试工具重启服务后你可以在OpenAPI文档的/tools端点看到新工具的描述。然后通过聊天接口测试“帮我检查一下/var目录的磁盘使用情况”AI应该会调用check_disk_usage工具并返回结果。4.2 与现有系统的集成模式KendaliAI 可以作为微服务嵌入到你现有的架构中。作为独立服务这是最常见的方式。在服务器上部署一个KendaliAI实例你的前端应用Web、桌面、移动端或聊天机器人通过HTTP API与其交互。AI负责理解用户意图并调用工具你的前端只负责界面展示。作为后台工作流引擎你可以用cronjob或Celery定期触发KendaliAI执行一些自动化任务。例如每天凌晨2点发送一个指令“检查所有服务器磁盘空间如果使用率超过90%则发送告警”。KendaliAI会规划执行调用check_disk_usage分析结果如果满足条件则调用send_alert另一个自定义工具发送邮件或钉钉消息。与消息平台结合通过为Slack、Discord或钉钉开发机器人将用户在这些平台上的消息转发给KendaliAI处理再将结果回复回去。这样就打造了一个团队内部的、能操作运维系统的智能助手。4.3 性能优化与监控心得当工具越来越多使用频率增加后性能问题就会浮现。工具懒加载不是所有工具都需要在服务启动时就全部加载。可以设计一个机制按需加载工具模块减少启动时间和内存占用。AI调用缓存对于一些相对静态的查询如“系统当前时间”如果AI的响应是确定性的可以考虑对“用户指令工具结果”进行哈希缓存短时间内相同指令直接返回缓存大幅降低API调用成本和延迟。但要注意对于涉及状态变化的指令如“删除文件”绝对不能缓存。异步执行如果工具执行是IO密集型的如网络请求、大量文件读取一定要将其定义为async函数并使用asyncio来避免阻塞主线程。KendaliAI 基于FastAPI天然支持异步。监控与日志务必为每个工具调用和AI请求记录详细的日志包括请求内容、响应时间、成功与否。这不仅是排查问题的依据也是分析工具使用频率、优化资源分配的数据基础。可以集成像Prometheus和Grafana这样的监控栈暴露一些关键指标如请求量、工具调用次数、平均响应时间。5. 实战疑难杂症与排查实录在实际部署和开发过程中我踩过不少坑。这里把一些典型问题和解决方案整理出来希望能帮你节省时间。5.1 AI模型“不理解”或“乱调用”工具现象你给AI一个清晰的指令比如“创建一份本周的工作报告”但你明明已经定义了generate_weekly_report工具AI却回复说“我无法执行此操作”或者去调用了完全不相关的read_file工具。根因与排查工具描述不清AI模型尤其是GPT主要依靠工具的“名称”和“描述”来决定是否以及如何调用。你的工具描述必须极其精确、无歧义并且要包含可能的关键词。将generate_weekly_report的描述从“生成报告”改为“基于本周的Jira任务日志和Git提交记录生成一份Markdown格式的周度工作总结报告”效果会好得多。指令上下文不足单句指令可能信息不够。尝试在系统提示词System Prompt中预先定义角色和任务范围。例如在发起对话的第一条消息中设置为系统消息“你是一个服务器运维助手可以帮我检查系统状态、管理日志和备份数据。用户会向你提出相关请求。”这能极大地引导AI的行为。模型能力问题如果使用的是较小的本地模型如7B参数的Llama其工具调用能力可能较弱。可以尝试a) 使用更大的模型b) 在指令中更明确地提示如“请使用generate_weekly_report工具来创建报告”c) 简化工具设计一个工具只做一件事。5.2 工具执行超时或失败现象AI成功调用了工具但工具执行时间过长导致HTTP请求超时或者工具执行过程中抛出异常。解决方案设置超时在KendaliAI服务端和HTTP客户端如果你通过前端调用都要设置合理的超时时间。对于可能长时间运行的工具如大数据备份考虑将其设计为异步任务工具只负责触发一个后台任务并立即返回一个任务ID然后提供另一个check_task_status工具来查询结果。完善的错误处理工具函数内部必须用try...except包裹捕获所有可能的异常并返回结构化的错误信息而不是让异常抛到上层导致服务崩溃。返回格式如{status: error, message: 具体错误原因}这样AI也能将错误信息理解并转述给用户。资源限制如果是Shell命令执行时间过长检查是否命令本身陷入死循环或等待输入。使用subprocess执行命令时务必设置timeout参数。5.3 权限问题与沙箱逃逸担忧现象工具执行时提示“Permission denied”或者你总担心恶意指令会突破沙箱。深度防御策略最小权限原则运行KendaliAI服务的系统用户权限必须严格控制。只赋予它执行必要操作的最小权限。例如如果只需要读日志就不要给写权限。沙箱强化使用Docker沙箱时启用所有安全选项--read-only只读根文件系统、--network none无网络除非工具需要、--cap-drop ALL丢弃所有权限、--security-opt no-new-privileges。将需要操作的工作目录通过-v卷挂载进去并且挂载为只读:ro如果可能。输入验证与过滤这是最关键的一环。对于任何从用户输入或AI解析结果传递到工具的参数都必须进行严格的验证和过滤。特别是execute_shell工具绝对不要直接将用户输入拼接成命令。应该使用白名单机制只允许执行预定义的、安全的命令集合或者使用参数化查询如subprocess.run([‘ls’, ‘-la’, user_provided_dir])而不是字符串拼接f’ls -la {user_provided_dir}’。审计日志记录所有工具调用的详细信息谁用户/会话、什么时候、调用了什么工具、参数是什么、结果是什么。这些日志是事后审计和安全分析的生命线。5.4 与本地模型集成的网络与配置问题现象配置了Ollama本地模型但KendaliAI服务无法连接或调用失败。排查步骤确认Ollama服务状态curl http://localhost:11434/api/tags查看模型列表。确保服务在运行且端口正确。检查KendaliAI配置确认config.yaml中ai.base_url是http://host.docker.internal:11434/v1如果KendaliAI跑在Docker容器内或http://localhost:11434/v1如果同在宿主机。api_key通常不需要。模型名称匹配ai.model配置的名字必须与Ollama中拉取的模型名称完全一致例如llama3.1:8b。网络连通性如果服务部署在Docker容器或不同主机确保网络可达没有防火墙阻拦。在KendaliAI的服务日志中通常会打印出调用AI API的详细错误信息这是最重要的调试依据。经过这些深入的拆解和实战你应该对KendaliAI这个项目有了全面的认识。它不是一个开箱即用的最终产品而是一个强大的、以安全为基石的“乐高”式框架。它的价值在于提供了一个清晰的范式让你能够将前沿的AI语言理解能力与稳定可靠的本地化操作无缝衔接起来。无论是用于个人效率提升还是构建企业级的智能自动化流程这个项目都提供了一个极具潜力的起点。剩下的就看你如何发挥想象力用自定义的工具去搭建属于你自己的“贾维斯”了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2592315.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…