构建AI自进化系统:从自动化到自主演化的工程实践

news2026/5/8 1:02:26
1. 项目概述一个能自我进化的AI系统在AI工程领域我们常常面临一个困境系统上线后如何让它持续适应快速变化的技术环境手动监控、分析和优化不仅耗时而且容易滞后。今天要分享的是我在OpenClaw生态中构建并投入生产的一个“自我进化系统”。这个系统的核心目标是让AI系统本身具备学习、分析和优化的能力实现一定程度的自动化演进。简单来说它就像一个24小时在线的“AI系统医生”。它会持续“阅读”AI前沿论文、技术博客、社区讨论以及OpenClaw自身的运行数据从中“学习”新的知识。然后它会像一个经验丰富的架构师一样对这些信息进行“分析”评估哪些改进点对当前系统有价值、风险如何。最后对于低风险的优化项它能“动手”自动生成代码、提交Pull Request甚至完成部署。整个过程从感知到决策再到执行形成了一个闭环。这不仅仅是自动化更是一种基于反馈的持续进化机制。这个项目目前有两个版本v1稳定版已在生产环境稳定运行基于Node.js功能完整v2开发版则是一个用TypeScript重构的、更具前瞻性的新架构旨在实现更完整的Skill生命周期管理和自动化演化。无论你是想立刻部署一个能用的系统还是想深入探究下一代AI自治系统的设计思想这个项目都提供了丰富的实践素材。接下来我将从设计思路、核心实现到避坑经验为你完整拆解这个系统的构建过程。2. 系统核心架构与设计哲学2.1 为什么需要“自我进化”在深入代码之前我们先聊聊背后的设计哲学。传统的软件运维和优化严重依赖工程师的经验和响应速度。当一个新的JavaScript引擎性能特性发布或是一个潜在的安全漏洞被披露时从信息触达到工程师评估、再到实施修复存在一个时间差。对于追求极致效率和稳定性的系统这个时间差就是风险窗口。自我进化系统的设计初衷就是压缩甚至消除这个窗口。它的核心思想是将人类的经验与决策模式编码成一套可执行的规则与流程并赋予系统感知环境、分析决策和行动的能力。这并非要取代工程师而是将工程师从重复、高频的监控和低风险决策中解放出来专注于更高层次的架构和创新。系统负责“发现问题”和“执行已知解决方案”工程师则负责“定义规则”和“处理未知复杂问题”。2.2 v1与v2两种架构范式的演进项目提供了两个并行的架构版本这恰好反映了我们对系统演进路径的思考。v1稳定版采用的是功能模块化架构。它的设计非常务实核心是解决问题。你将看到analyzer/、compute/、deployment/等目录每个目录对应一个明确的职能模块。例如所有分析逻辑都在analyzer/下所有与GitHub交互的代码都在executor/下。这种架构的优势是清晰、直接易于理解和调试非常适合快速实现核心闭环并投入生产。它的数据流是线性的学习 - 分析 - 优化 - 部署。v2开发中则转向了智能体Agent导向的分层架构。这是对未来形态的探索。它的核心抽象不再是“功能”而是“角色”和“能力”。Tool层提供最基础的能力原子如执行Shell命令、调用GitHub API、与LLM对话。它们是无状态的。Skill层由多个Tool组合而成的、能完成特定任务的“技能”比如“分析代码仓库趋势”、“自动修复已知安全漏洞”。Skill是有状态、可评估、有生命周期的。Agent Core层包含Planner规划器、Scheduler调度器和Policy策略。它负责宏观决策当前应该激活哪个Skill如何调度资源某个操作是否被安全策略允许Memory层负责短期、长期记忆以及统计数据为决策提供上下文。Sandbox层为所有执行提供安全隔离环境这是实现高风险操作自动化的安全基石。v2架构的核心目标是实现系统的“可演化性”。系统不仅能优化外部目标如OpenClaw还能优化自身——自动发现更高效的Skill、淘汰陈旧的Skill而无需重写核心Agent逻辑。这更贴近“进化”的本质。2.3 数据驱动决策系统的“大脑”如何工作无论是v1还是v2系统的智能都建立在数据驱动之上。它不是一个拍脑袋的“黑盒”。整个决策流程可以拆解为以下几步我以v1的流程为例进行说明数据采集与学习系统从多个预设数据源如特定RSS、GitHub仓库的Release、技术论坛API定时抓取信息。这里的关键不是“全”而是“准”。我们精心筛选了与OpenClaw技术栈Node.js, 向量数据库 AI模型部署强相关的信息源确保输入信号的质量。结构化分析与分类原始文本信息通过LLM如GPT-4被提取和结构化。例如一篇博客可能被分类为performance性能并提取出“使用Promise.allSettled替代多个独立await可提升IO密集型操作效率”这样的核心观点。同时一个内置的risk-rater模块会根据经验规则如变更涉及核心模块、外部依赖升级等为每个知识条目赋予LOW/MEDIUM/HIGH风险等级。优化建议生成分析器会将知识条目与当前系统的代码库进行“模式匹配”。例如当它学习到上述Promise.allSettled的最佳实践后会扫描代码库寻找那些包含连续独立await调用的异步函数并生成一条具体的代码重构建议描述、风险等级和预估收益都会被记录。决策与执行这是安全边界所在。所有HIGH风险建议会被标记为“待人工审核”仅生成报告。LOW风险建议如更新文档链接、修正拼写错误会进入自动执行队列。MEDIUM风险建议如依赖库次要版本更新可能需要在特定时间窗口或经过简单测试后自动执行。执行器executor/会调用GitHub API创建分支、提交代码、发起PR甚至在某些配置下自动合并。实操心得风险等级的界定是艺术也是科学。初期我们设定得过于保守导致大量无害变更也需要人工介入失去了自动化意义。后来我们建立了一个“风险矩阵”从“影响范围”单文件/多模块/核心、“回滚难度”、“测试覆盖度”和“数据一致性”四个维度量化打分才让风险评级更加合理、自动化执行范围更精准。3. v1稳定版核心模块深度解析与实操v1是经过实战检验的版本其每个模块的设计都包含了我们对生产环境的思考。让我们深入几个关键模块。3.1 分析器从信息到洞察的转化器分析器skill/lib/analyzer/是系统的“感官”和“初级大脑”。它的工作流如下// 简化版分析流程示意 async function analyzeKnowledgeItem(rawItem) { // 1. 分类 (Classifier) const category await classifier.categorize(rawItem); // 可能输出: code_smell, security_alert, performance_tip, new_feature // 2. 提取实体与建议 (LLM调用) const structuredSuggestion await llmClient.extractSuggestion({ text: rawItem.content, context: 当前技术栈: ${currentTechStack} }); // 3. 风险评估 (Risk Rater) const riskScore riskRater.evaluate({ changeType: structuredSuggestion.type, affectedModules: await findAffectedModules(structuredSuggestion), hasTests: await checkTestCoverage(affectedModules) }); // riskScore 转化为 LOW/MEDIUM/HIGH // 4. 优先级排序 const priority calculatePriority(category, riskScore, structuredSuggestion.estimatedImpact); return { category, structuredSuggestion, risk: riskScore, priority }; }classifier.cjs的实现值得一说。早期我们尝试用纯规则匹配关键词但准确率很低。后来改用小样本微调的文本分类模型如fasttext与规则引擎结合。对于“发布新版本”这类明确信息用规则对于“一篇探讨性能优化的博文”则用模型分类兼顾了效率与准确性。risk-rater.cjs的核心是一系列可配置的规则函数。例如// 规则示例如果建议涉及数据库模式变更且没有对应的数据迁移脚本则风险升高 rules.push({ name: database_schema_change_without_migration, condition: (suggestion) suggestion.involvesDatabaseSchema !suggestion.includesMigrationScript, riskIncrement: MEDIUM - HIGH });这些规则是基于我们团队历史上多次线上事故的复盘总结而来是经验编码化的典型体现。3.2 计算引擎本地与云端的智能调度计算引擎skill/lib/compute/负责执行分析、代码生成等消耗计算资源的任务。它设计了一个简单的混合调度策略。local.cjs处理轻量级任务如代码静态分析、简单的文本处理。它直接调用本地Node.js进程。cloud.cjs针对需要大量CPU/GPU的任务如训练一个小的分类模型、进行复杂的代码差异分析。它将任务打包成Docker镜像提交到AWS ECS或Lambda等云服务。dispatcher.cjs是调度中枢。它的决策逻辑基于一个成本-收益模型function decideExecutionEnv(task) { const estimatedComplexity task.estimatedRuntime * task.resourceIntensity; const localCapacity getCurrentLocalLoad(); // 规则1如果任务很简单且本地有空闲永远用本地零成本 if (estimatedComplexity THRESHOLD_SIMPLE localCapacity MAX_LOAD) { return local; } // 规则2如果任务很复杂或本地繁忙考虑云端 const cloudCost calculateCloudCost(estimatedComplexity); const budgetLeft getDailyBudget() - getTodaySpent(); // 规则3如果云端成本在预算内且能显著提速就用云端 if (cloudCost budgetLeft * 0.1 estimatedComplexity THRESHOLD_COMPLEX) { return cloud; } // 规则4否则进入本地队列等待 return local_queue; }scaler.cjs则负责监控队列长度。如果本地队列积压超过阈值它会自动向云端申请启动一个临时的计算节点来“削峰”。注意事项成本控制的魔鬼在细节里。云端计算的成本很容易失控。我们除了设置每日总预算如50元还为单次任务设置了成本上限。同时cloud.cjs中必须包含严格的超时控制和资源清理逻辑确保即使任务失败云资源也会被及时释放避免产生“僵尸”费用。3.3 执行器与部署器安全自动化的最后一公里这是系统从“思考”走向“行动”的关键环节也是安全红线所在。executor/github-api.cjs封装了所有与GitHub的交互。它不仅仅是调用官方SDK还增加了重试机制、速率限制处理和友好的错误日志。例如当遇到GitHub API的secondary rate limit时它会采用指数退避策略重试并将失败任务暂存到数据库而不是直接抛出错误导致进程崩溃。deployment/auto-apply.cjs是自动化执行的核心。它的逻辑非常谨慎预检检查当前Git仓库状态是否干净目标分支是否存在冲突。沙箱测试Dry-run对于代码变更先在内存或临时目录中应用变更运行单元测试套件。如果测试失败则中止流程并将该优化建议标记为FAILED_TEST同时通知人工。创建隔离分支分支名格式为auto-optimize/type-knowledge-id-timestamp清晰可追溯。提交与PR提交信息模板化清晰引用源头知识ID。创建的PR会自动添加标签如auto-generated、low-risk并分配给指定的负责人或团队进行最终审查。自动合并可选仅针对标记为LOW风险且通过所有CI检查的PR可以配置在创建一段时间后如2小时自动合并前提是没有人手动阻止。deployment/tuner.cjs负责应用那些无需代码变更的系统优化例如调整Node.js进程的UV_THREADPOOL_SIZE环境变量或者更新Nginx配置中的缓存策略。这些变更通常通过生成并应用一个配置文件补丁来完成。4. 生产环境部署与运维实战将这样一个系统部署为7x24小时运行的服务稳定性与可观测性至关重要。项目提供的evolution-deployment/目录包含了我们打磨过的部署方案。4.1 使用Systemd实现可靠的后台服务systemd是Linux系统上管理守护进程的标准工具。我们的install.sh脚本和service文件做了以下几件事创建专属用户和组以openclaw-evol这样的非root用户运行服务遵循最小权限原则。环境隔离在service文件openclaw-evolution.service中通过EnvironmentFile加载包含GITHUB_TOKEN等敏感信息的配置文件该文件权限设置为600确保密钥安全。工作目录与标准流重定向正确设置WorkingDirectory并将标准输出和错误输出重定向到journald方便集中日志管理。进程监控与自动重启配置Restarton-failure和RestartSec10s确保进程意外退出后能自动恢复。资源限制通过LimitNOFILE和LimitNPROC限制进程能打开的文件数和进程数防止其耗尽系统资源。部署后你需要熟练使用以下命令进行运维# 查看实时日志这是排查问题的第一现场 sudo journalctl -u openclaw-evolution -f --lines100 # 查看服务状态确认是否在运行 sudo systemctl status openclaw-evolution # 在做出配置变更后重新加载服务 sudo systemctl daemon-reload sudo systemctl restart openclaw-evolution4.2 监控体系给系统装上仪表盘系统内置了五个维度的监控器skill/lib/monitors/但它们主要监控“业务逻辑”。对于基础设施层面的健康状态我们依赖外部脚本和工具。evolution-monitor.sh是一个综合性的健康检查脚本。我强烈建议你将其加入服务器的cron job每小时运行一次并将输出发送到你的监控平台如Prometheus或邮箱。它检查服务心跳Systemd服务是否处于active (running)状态。进程存活是否真的有Node.js进程在运行。数据库可访问性SQLite数据库文件是否存在且可读写。磁盘与内存工作目录所在磁盘空间和系统内存是否充足。错误日志扫描快速grep最近的日志文件查找ERROR或FATAL级别的日志。新内容检查查询知识库报告最近一段时间内新发现的知识点和生成的优化建议数量。evolution-quick-monitor.sh则是一个轻量版通常集成到运维人员的日常检查清单中或者作为其他自动化流程的依赖检查。4.3 数据查看与日常维护系统所有的状态都沉淀在SQLite数据库中。掌握几个核心SQL查询就能对系统运行情况了如指掌。# 进入数据库交互模式 sqlite3 /root/.openclaw/knowledge/evolution.db -- 1. 查看知识来源分布了解系统在关注什么 SELECT source, COUNT(*) as count, MAX(discovered_at) as latest FROM knowledge GROUP BY source ORDER BY count DESC; -- 2. 查看不同风险等级的优化建议积压情况 SELECT risk_level, status, COUNT(*) FROM optimizations GROUP BY risk_level, status; -- 3. 每日成本消耗趋势非常重要 SELECT DATE(timestamp) as day, SUM(tokens_used) as total_tokens, SUM(cost_yuan) as total_cost FROM learning_log GROUP BY day ORDER BY day DESC LIMIT 7; -- 4. 找出最近失败的任务进行故障排查 SELECT * FROM learning_log WHERE tokens_used 0 AND optimizations_generated 0 ORDER BY timestamp DESC LIMIT 5;实操心得数据库维护不容忽视。SQLite虽然轻量但长期运行后DELETE操作会产生碎片影响性能。我们设置了一个每周执行的cron job在系统空闲时如周日凌晨自动执行VACUUM;命令来重整数据库。同时定期将knowledge表中的陈旧数据如3个月前的、已处理的LOW风险条目归档到备份表保证主表的查询效率。5. 常见问题排查与性能调优实录在近一年的运行中我们踩过不少坑。这里总结几个最具代表性的问题及其解决方案。5.1 问题一GitHub API速率限制导致学习周期中断现象监控日志发现系统在运行learn阶段频繁报错错误信息包含API rate limit exceeded或secondary rate limit。根因分析系统配置的GitHub Token是个人访问令牌PAT其默认的速率限制对于高频抓取多个仓库信息来说可能不够用。此外过于密集的API调用即使未超总限也会触发GitHub的“次级速率限制”。解决方案升级Token类型如果用于组织下的仓库考虑使用GitHub App安装令牌其速率限制通常更高。实现智能限流在executor/github-api.cjs中我们不仅使用了octokit/plugin-throttling还增加了一个自定义的请求队列。它会根据GitHub返回的X-RateLimit-Remaining和X-RateLimit-Reset头部信息动态调整请求间隔。当剩余次数低于阈值时自动切换到“慢速模式”。引入缓存对于不常变动的数据如仓库的README、Release列表在数据库中增加一个带过期时间的缓存层避免重复请求。错峰执行将学习任务分散到一天的不同时间点执行而不是集中在整点。5.2 问题二LLM调用成本意外飙升现象某日成本报告显示单日消耗远超50元预算检查发现大量Token用在了代码分析上。根因分析系统在分析一篇长技术文章时将整篇文章连同大量代码片段一起发送给了LLM导致输入Token激增。同时某些分析请求因网络问题重试了多次。解决方案输入优化在发送给LLM前先对文本进行预处理。使用提取式摘要算法如TextRank或简单的启发式规则取前N个字符后M个字符来缩减长文本。对于代码只发送关键的函数签名和变更上下文而不是整个文件。模型降级并非所有任务都需要GPT-4。我们建立了一个路由策略分类、简单摘要任务使用GPT-3.5-Turbo复杂的代码生成和风险评估才使用GPT-4。这能大幅降低成本。严格的预算熔断在compute/dispatcher.cjs中我们增加了实时预算检查。在每次调用LLM前会查询当日已花费金额。如果超过日预算的80%则自动降级到更便宜的模型或暂停非关键任务并通过监控告警通知管理员。幂等性与重试控制为每个学习请求生成唯一ID并在数据库中记录其状态。避免因网络超时等原因导致的重复提交和重复计费。5.3 问题三自动生成的PR质量不稳定现象有时自动生成的PR代码风格怪异或引入了新的Lint错误导致CI失败需要人工修复反而增加了负担。根因分析LLM在生成代码补丁时虽然理解了“做什么”但对项目特定的代码风格如缩进、命名约定、使用的工具库和约束条件如ESLint规则把握不准。解决方案提供更丰富的上下文在给LLM的提示词Prompt中不仅包含要修改的代码片段还附上该项目package.json中的关键依赖、.eslintrc规则摘要、以及相邻文件的代码风格示例。后置代码格式化在auto-apply.cjs中应用补丁后立即运行项目的格式化命令如prettier --write和Lint检查如eslint --fix。如果格式化或修复后仍有错误则将PR标记为NEEDS_REVIEW而不是自动合并。建立“黄金样本”库将历史上生成的、被人工接受并合并的高质量PR及其对应的知识条目、LLM提示词保存下来作为后续生成的参考样本让LLM“模仿”成功的模式。引入人工审核环节将所有MEDIUM风险及以上的PR以及任何在沙箱测试中未通过全部CI检查的LOW风险PR强制设置为需要至少一名指定维护者的人工批准Approval后才能合并。这是安全与效率的必要平衡。5.4 性能调优点让系统运行更顺畅除了解决问题一些主动的调优能显著提升系统体验数据库索引优化knowledge表和optimizations表上的discovered_at、status、risk_level字段是高频查询条件务必为其创建索引。CREATE INDEX idx_knowledge_status ON knowledge(status); CREATE INDEX idx_optimizations_risk_status ON optimizations(risk_level, status);模块懒加载v1的index.cjs在主进程中一次性加载了所有模块。对于内存受限的环境可以改为按需动态加载。例如只有在执行optimize命令时才加载analyzer/和optimizer/模块。日志分级与轮转使用winston或pino等日志库区分DEBUG、INFO、WARN、ERROR级别。为日志文件配置轮转策略如按天切割、最多保留7天避免磁盘被日志塞满。我们的utils/logger.cjs就实现了这个功能。6. 迈向v2下一代自进化系统的设计展望v1解决了“从0到1”的自动化问题而v2则着眼于“从1到N”的自主进化。虽然v2仍在开发中但其架构设计已经勾勒出令人兴奋的蓝图。6.1 Skill的生命周期管理在v2中Skill不再是一个静态的代码目录而是一个具有完整生命周期的实体。设想这样一个场景创建开发者或另一个AI提交了一个新的Skill用于“自动将var声明替换为let/const”。评估系统将该Skill放入skills/experimental/目录。在沙箱中用一批历史代码对其测试收集成功率、平均执行时间、代码风格符合度等指标。晋升如果该Skill在实验阶段表现优异如成功率95%无副作用且成本可控Agent Core中的Policy模块可能将其自动晋升到skills/production/并分配更高的执行权重。迭代/淘汰如果后续监控发现该Skill成功率下降可能因为新的语言特性或出现了更优的替代Skill它会被降级回实验区或移入skills/retired/。这个过程完全由数据驱动系统通过比较不同Skill在相同任务上的表现指标自动完成优胜劣汰。6.2 沙箱安全与策略引擎自动化执行高风险操作的前提是绝对安全。v2的sandbox/层设计了几种执行模式Dry-run只汇报将要执行的操作而不实际执行。Read-only允许执行所有命令但对文件系统的任何写操作都会被重定向到内存或临时位置。Limited在一个严格限制资源CPU、内存、网络的容器如Docker中运行并且有一个预定义的允许命令列表Allowlist。Policy策略引擎则定义了一系列全局规则例如“禁止任何尝试删除.git目录的操作。”“禁止在未经明确授权的情况下向package.json添加新的dependencies。”“如果一次代码变更涉及超过10个文件必须触发人工审核流程。”这些策略为系统的自主行为划定了明确的边界。6.3 记忆与演化闭环v2的memory/层旨在让系统拥有“经验”。短期记忆记录当前会话的上下文长期记忆则存储重要的决策结果和Skill表现数据统计记忆则汇聚成系统整体的“能力画像”。演化闭环是终极目标系统在运行中不断产生新的数据记忆这些数据被用来评估和优化现有的Skills甚至生成新的Skills更好的Skills又带来更优的运行结果从而产生更高质量的数据。这个循环使得系统能够在无人干预的情况下持续向更高效、更稳定的方向“进化”。从v1到v2是从“自动化工具”到“自治智能体”的范式迁移。部署v1能立刻获得生产力提升而研究v2则能帮助我们站在未来思考AI与系统共生演化的可能性。无论选择哪条路径这个项目都为我们提供了一个宝贵的、可运行的实验平台去探索那个让软件自我维护、自我优化的终极梦想。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2593210.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…