Sdcb Chats 1.10 私有化代码执行器部署教程
了 Chats 1.10 最激动人心的新功能——内置代码执行器Code Interpreter。文章发出后反响很热烈但也有很多朋友在问“这功能看着很强但到底怎么部署及其配置啊”回头看了一下前一篇文章确实光顾着兴奋地介绍功能把最关键的部署实操给略过了。为了让大家都能尽快用上这个“硬核”功能今天特地补上这篇详细的保姆级部署配置文档。想要在 Chats 中使用“代码执行”功能主要分两步走基础设施层让 Chats 服务能连上 Docker Daemon因为代码是在隔离的 Docker 容器中运行的。应用配置层在 Chats 后台和前台开启相应的功能开关。第一部分连接 Docker DaemonChats 的代码执行器原理是当模型需要执行代码时Chats 会动态创建一个一次性的 Docker 容器沙箱在里面运行代码并获取结果。因此Chats 必须拥有管理 Docker 的权限。这里主要介绍两种最常见的场景纯 Docker 环境Linux 服务器和 Windows 下的 Docker Desktop。场景一Linux 服务器 / 纯 Docker 环境这是生产环境最常用的方式。你只需要将宿主机的 Docker Socket 挂载到 Chats 容器中即可。1. Docker 镜像说明Chats 的 Docker 镜像托管在sdcb/chats我们提供了完善的多架构支持描述Docker 镜像 Tag说明Latest推荐latest包含最新稳定版功能多架构支持指定完整版本{version}(如1.10.0)生产环境推荐锁定版本指定主/次版本{major}/{major.minor}如1,1.10自动更新到该系列最新版特定平台...-linux-x64等仅在必须手动指定架构时使用关于 Manifest (多架构支持)我们的latest和语义化版本标签如1.10.0都是Manifest List。这意味着你不需要手动区分linux-x64还是linux-arm64。无论你在 x64 的 Linux 服务器、ARM64 的树莓派还是 Windows Server (Nano Server) 上执行docker pull sdcb/chats:latestDocker 都会自动检测并拉取最适合当前系统的镜像层。2. 启动配置由于 Docker Socket 默认属于 root 用户为了避免权限问题Permission Denied建议显式指定--user 0:0以 root 身份运行容器。在启动 Chats 的docker run命令或docker-compose.yml中添加 user 配置和挂载卷-v /var/run/docker.sock:/var/run/docker.sock --user 0:0完整的 docker run 命令示例# 创建数据目录并授权 mkdir -p ./AppData chmod 755 ./AppData # 启动容器 docker run -d --restart unless-stopped --name sdcb-chats \ -p 8080:8080 \ -e DBTypesqlite \ -e ConnectionStrings__ChatsDBData Source./AppData/chats.db \ -v ./AppData:/app/AppData \ -v /var/run/docker.sock:/var/run/docker.sock --user 0:0 \ sdcb/chats:latest示例 docker-compose.ymlversion: 3 services: chats: image: sdcb/chats:latest user: 0:0 # 关键必须使用 root 用户才能访问 docker.sock volumes: - /var/run/docker.sock:/var/run/docker.sock # 关键配置挂载 Docker 守护进程 - ./data:/app/data ports: - 8080:8080场景二Windows 环境在 Windows (使用 Docker Desktop) 上部署时情况稍微特殊一点取决于你是在 Docker 容器内运行 Chats还是直接运行 Chats 的 Windows 可执行文件 (.exe)。情况 AChats 运行在 Docker 容器内推荐如果你是通过docker run启动 Chats 的那么恭喜你配置方法其实和 Linux完全一样Docker Desktop for Windows 做了很好的兼容你只需要把/var/run/docker.sock挂载进去即可不需要配置 npipe 或 TCP。PowerShell 启动命令示例docker run -d -p 8080:8080 -v /var/run/docker.sock:/var/run/docker.sock -v ${PWD}/data:/app/data sdcb/chats:latest情况 BChats 作为原生可执行文件运行如果你不习惯使用 Docker 部署应用我们提供了基于预编译的原生可执行文件无需安装任何运行时如 .NET SDK/Runtime即可直接运行启动速度较快且内存占用低。可执行文件列表平台文件名说明Windows 64位chats-win-x64.zip推荐大多数 Windows 用户Linux 64位chats-linux-x64.zip常见的 Linux 服务器 (glibc)Linux ARM64chats-linux-arm64.zip树莓派、Mac M系列docker等Linux Muslchats-linux-musl-*.zip适用于 Alpine 等轻量级发行版macOSchats-osx-*.zip支持 x64 (Intel) 和 ARM64 (M系列芯片)通用包chats.zip需安装 .NET 10跨平台你可以从 下载指南文档 页面获取下载地址。该文档详细列出了 GitHub Releases 及国内加速镜像的下载方式。配置与启动如果你下载了Chats.BE.exe(Windows 版后端) 直接运行而不是使用 Docker 镜像那么你需要通过命令行参数指定 Windows 的命名管道 (Named Pipe)来连接 Docker 引擎。下载程序下载并解压对应的chats-win-x64.zip。启动命令使用--CodePod:DockerEndpoint参数指定 Docker 接入点。PowerShell 启动命令示例# 启动后端程序并指定 Docker 引擎地址 .\Chats.BE.exe --CodePod:DockerEndpoint npipe://./pipe/docker_engine你也可以同时指定其它参数如端口.\Chats.BE.exe --urls http://:5000 --CodePod:DockerEndpoint npipe://./pipe/docker_engine这样原生运行的 Chats 也能顺利指挥 Docker Desktop 创建沙箱环境了。第二部分在 Chats 中启用功能连上 Docker 只是打通了经脉接下来还需要在 Chats 内部“解锁”这个技能。1. 后端配置模型设置首先我们要告诉 Chats哪些模型允许使用这个能力。以管理员身份登录 Chats。进入后台管理-模型配置。展开你想要的模型提供商-模型密钥然后编辑你想要使用的模型例如deepseek-v3.2。注意任何支持 Tool Call (工具调用) 的模型 API 都可以无论是 OpenAI 原生的 Chat Completions还是Responses API/Messages API。在功能列表中找到并勾选“代码执行 (Code Execution)”。⚠️ 特别注意用户权限分配很多第一次添加模型的朋友容易忽略这一点启用功能后必须明确授权给用户。在模型编辑页面的底部展开用户列表 (User Access)确保给你自己的账号或需要使用的用户勾选上权限。如果不勾选你在前台是看不到这个模型的或者无法调用该功能。2. 前端配置开启会话开关后端准备就绪后最后一步是在聊天界面开启使用。回到聊天 (Chat)界面。在顶部的模型配置栏通常显示模型名称的地方点击展开配置面板。找到“代码执行”开关将其打开。效果演示一切就绪现在你可以像使用 ChatGPT 的高级数据分析一样上传一个 Excel 文件或者让它帮你画一张图表了。试试发送这样的指令请帮我分析这个 Excel 文件https://cv-public.sdcb.pub/2026/changsha_weather_2025.xlsx生成一个包含每月平均气温和降水量的报告并附上图表Chats 会自动创建一个隔离的 Docker 环境编写 Python 代码执行并把生成的图片直接贴在对话框里。安全性考量⚠️重要提示与模型 API 调用不同代码执行功能目前不进行任何计费仅通过全局配置做了一些基础限制。如果你打算将 Chats 开放给未经充分信任的用户使用例如搭建类似 ChatGPT/Manus 的公开服务务必认真配置以下安全策略避免服务器资源被滥用甚至被攻击。1. 网络隔离代码执行容器的默认网络模式为bridge这与 ChatGPT 的完全隔离沙箱不同——容器是可以联网的。这个设计是有意为之的因为它带来了更强大的能力AI 可以在容器内下载文件、调用外部 API、安装依赖包。甚至可以让 AI 创建多个 Docker 容器协同工作比如一个跑 Web 应用、一个跑数据库Chats 会在工具调用响应中返回容器的局域网 IP 地址模型可以据此进行容器间通信。但这也意味着潜在风险容器可以访问宿主机同一 Docker 网络内的其他服务包括你的数据库、Redis 等。恶意用户可能利用此能力进行内网扫描或攻击。建议安全敏感环境将CodeInterpreter:MaxAllowedNetworkMode设置为none完全禁止容器联网。物理隔离在一台独立的虚拟机或物理机上运行 Docker DaemonChats 通过 TCP 远程连接从而实现网络层面的彻底隔离。2. 资源限制AI 可以创建任意数量的 Docker 会话通过create_docker_session工具。虽然空闲会话会在一定时间后自动清理但仍存在以下风险算力滥用恶意用户可能运行高负载任务耗尽服务器 CPU/内存。磁盘占用AI 可能拉取不同版本的镜像这些镜像不会自动清理长期积累会占满磁盘。Chats 提供了细粒度的资源限制配置强烈建议根据实际情况调整配置项默认值说明CodeInterpreter:DefaultResourceLimits:MemoryBytes2147483648(2GB)单个容器内存上限CodeInterpreter:DefaultResourceLimits:CpuCores2.0单个容器 CPU 核数CodeInterpreter:DefaultResourceLimits:MaxProcesses200单个容器最大进程数CodeInterpreter:MaxResourceLimits:*null(不限制)硬上限防止 AI 请求超额资源CodeInterpreter:SessionIdleTimeoutSeconds1800(30分钟)空闲会话自动回收时间CodeInterpreter:DefaultTimeoutSeconds300(5分钟)单次命令执行超时默认的 2 核 2GB 配置可以完成大多数日常任务数据分析、图表生成、文档处理等。如果你的场景需要更多资源如视频处理、大规模计算可以适当放宽反之如果是公开服务建议收紧限制。3. 文件上传限制AI 执行代码后可以将生成的文件artifacts回传给用户。为防止滥用Chats 也提供了相应限制配置项默认值说明CodeInterpreter:MaxArtifactsFilesToUpload50每轮最多回传文件数CodeInterpreter:MaxSingleUploadBytes157286400(150MB)单个文件最大大小CodeInterpreter:MaxTotalUploadBytesPerTurn314572800(300MB)单轮总上传大小4. 其他建议定期清理镜像使用docker image prune或docker system prune定期清理未使用的镜像和悬挂资源。监控与告警对 Docker 宿主机的 CPU、内存、磁盘使用率设置监控告警。用户权限管理仅对信任的用户开放代码执行功能在模型配置中谨慎分配权限。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2445914.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!