技能工程化框架:从标准化定义到编排实战

news2026/5/17 8:46:22
1. 项目概述从“技能”到“智能”的工程化桥梁在当今的软件开发领域尤其是涉及复杂交互和自动化流程的场景我们常常会听到“技能”这个词。它听起来很抽象但如果你拆解过任何一款智能助手、自动化机器人或者一个大型的业务流程编排系统你就会发现它们的内核往往是由一系列独立的、可复用的“技能”单元构成的。今天要聊的这个名为“adkit/skills”的项目正是这样一个专注于“技能”定义、管理和执行的工程化框架。它不是某个具体的应用而是一个底层的“工具箱”和“脚手架”旨在解决一个核心问题如何高效、可靠地将一个个独立的业务逻辑或AI能力封装成标准化的“技能”并让它们能够被灵活地组合、调度和复用。简单来说你可以把它想象成一个乐高积木的标准化生产车间。我们有很多零散的创意和功能比如“识别图片中的文字”、“调用某个API查询天气”、“根据用户输入生成一段文案”这些就是原始的塑料颗粒。“adkit/skills”这个框架提供了一套模具、接口规范和组装说明书将这些颗粒塑造成统一规格的乐高积木块。之后无论是搭建一个智能客服机器人还是一个自动化数据处理流水线你都可以像拼乐高一样快速选取合适的技能积木进行组合而无需每次都从零开始烧制塑料。这个项目特别适合两类开发者一类是正在构建需要复杂能力组合的中后台系统或AI应用架构师他们需要一个清晰、解耦的架构来管理日益增长的功能模块另一类是希望将自己的某个算法或服务“产品化”、“可插拔化”的独立开发者或团队通过遵循这套框架他们的工作成果能更容易地被集成到更大的生态中。接下来我将从设计思路、核心实现、实操细节到避坑经验完整拆解这个“技能工厂”是如何运作的。2. 核心设计理念与架构拆解2.1 什么是“技能”的标准化定义在“adkit/skills”的语境下一个“技能”绝不仅仅是一个函数或者一个类。它是一个自包含的、具有明确输入输出契约、可独立执行并具备状态管理能力的计算单元。我们可以从四个维度来理解它的标准化定义输入与输出IO Contract这是技能与外界通信的协议。框架通常会强制要求每个技能明确定义其接受的输入参数格式例如一个JSON Schema和产出的结果格式。比如一个“图片转文字”技能其输入契约可能要求一个image_url字符串或image_bytes二进制数据输出契约则可能是一个包含text字段和confidence分数的JSON对象。这种强契约保证了技能在流水线中可以被无缝串联上游技能的输出必须能匹配下游技能的输入。执行上下文Context技能的执行往往不是孤立的。它可能需要访问一些共享资源如数据库连接、配置信息、用户会话状态或者需要将自身的执行日志、耗时等信息上报。框架会提供一个统一的“上下文”对象贯穿技能执行的始终用于传递这些共享信息和状态。这避免了在每个技能内部硬编码配置或全局变量实现了依赖注入使得技能本身更纯粹、更易于测试。生命周期管理Lifecycle一个技能从被调用到结束有其完整的生命周期。框架需要管理初始化加载模型、建立连接、执行处理输入、异常处理、资源清理关闭连接、释放内存等阶段。标准化的生命周期钩子如init(),execute(),cleanup()让技能开发者可以专注于核心逻辑而将资源管理等样板代码交给框架。元数据与发现Metadata Discovery为了让技能能被系统自动发现和调度每个技能都需要附带丰富的元数据技能的唯一ID、名称、描述、版本、作者、输入输出模式、所需计算资源、超时时间等。这些元数据通常通过装饰器或配置文件来声明。一个集中的“技能注册中心”会收集所有技能的元数据从而支持基于能力的动态查找和组合。2.2 框架的核心架构模式“adkit/skills”这类框架通常采用“微内核”或“管道-过滤器”架构模式其核心组件可以抽象为以下几层技能仓库Skill Repository这是技能的物理存储和版本管理的地方。可以是一个本地的文件目录也可以是一个远程的包管理服务器如私有的NPM registry或PyPI server。仓库负责存储技能的代码包及其元数据。技能运行时Skill Runtime这是执行技能的核心引擎。它负责加载技能代码包、实例化技能对象、注入执行上下文、调用生命周期方法、并处理执行过程中的异常。运行时需要具备隔离性理想情况下一个技能的崩溃不应影响整个运行时环境这通常通过进程隔离或轻量级沙箱如WebAssembly来实现。技能编排器Orchestrator这是大脑负责技能的调度与组合。它接收一个任务请求例如“处理这张图片先识别文字再翻译成英文”根据技能元数据和当前系统状态生成一个执行计划一个有向无环图DAG。然后它按照计划调用技能运行时执行各个技能并管理技能之间的数据传递、错误重试、超时控制等。复杂的编排器还支持条件分支、循环等控制流。技能网关Skill Gateway对外提供统一的API接口。它将外部的HTTP请求、消息队列事件或其他触发器转化为内部的任务请求交给编排器处理并将最终结果返回。网关还负责认证、鉴权、限流、监控数据采集等横切面关注点。这种架构带来的最大好处是解耦和可扩展性。技能开发者只需关心单个技能的实现系统集成者则通过编排器灵活组合技能构建复杂应用而运维人员可以通过网关和运行时统一管理所有技能的部署、监控和扩缩容。3. 从零开始定义一个标准化技能理论说再多不如动手写一个。我们以创建一个“敏感词过滤”技能为例看看在“adkit/skills”框架下假设我们基于Python实现一个类似理念的框架一个技能是如何从代码变成可被系统调用的积木的。3.1 技能类的基本结构首先我们需要继承框架提供的基础技能类并实现必要的方法。# 导入框架基础类 from adkit.skills import BaseSkill, SkillMetadata, InputSchema, OutputSchema from pydantic import BaseModel, Field from typing import Optional, List # 1. 定义技能的输入输出数据模型使用Pydantic class SensitiveFilterInput(BaseModel): 输入待检测的文本 text: str Field(..., description需要过滤的原始文本) filter_level: Optional[str] Field(medium, description过滤级别low, medium, high) class SensitiveFilterOutput(BaseModel): 输出过滤结果 filtered_text: str Field(..., description过滤后的文本) has_sensitive: bool Field(..., description是否包含敏感词) matched_words: List[str] Field(default_factorylist, description匹配到的敏感词列表) # 2. 声明技能元数据 metadata SkillMetadata( idsensitive_filter_v1, name敏感词过滤, description对输入文本进行敏感词检测与过滤支持多级别过滤。, version1.0.0, authorYour Name, input_schemaInputSchema(modelSensitiveFilterInput), output_schemaOutputSchema(modelSensitiveFilterOutput), required_resources{memory: 128Mi}, timeout_seconds5 ) # 3. 实现技能类 metadata.register # 使用装饰器注册元数据 class SensitiveFilterSkill(BaseSkill): def init(self, context): 初始化方法加载敏感词库 # 从上下文或配置中获取敏感词库路径 dict_path context.config.get(sensitive_dict_path, ./sensitive_words.txt) self.sensitive_words set() try: with open(dict_path, r, encodingutf-8) as f: for line in f: word line.strip() if word: self.sensitive_words.add(word) self.logger.info(f成功加载敏感词 {len(self.sensitive_words)} 个) except FileNotFoundError: self.logger.warning(未找到敏感词库文件将使用内置默认词库) self.sensitive_words {暴力, 毒品} # 示例默认词 # 初始化过滤策略映射 self.filter_strategies { low: self._filter_low, medium: self._filter_medium, high: self._filter_high } def execute(self, input_data: SensitiveFilterInput, context) - SensitiveFilterOutput: 执行方法核心处理逻辑 text input_data.text level input_data.filter_level if level not in self.filter_strategies: level medium self.logger.warning(f未知过滤级别{level}使用medium) # 调用对应的过滤策略 filter_func self.filter_strategies[level] filtered_text, matched filter_func(text) return SensitiveFilterOutput( filtered_textfiltered_text, has_sensitivelen(matched) 0, matched_wordslist(matched) ) def _filter_low(self, text): 低级过滤仅标记不替换 matched {word for word in self.sensitive_words if word in text} return text, matched def _filter_medium(self, text): 中级过滤替换为*号 matched set() result text for word in self.sensitive_words: if word in text: matched.add(word) result result.replace(word, * * len(word)) return result, matched def _filter_high(self, text): 高级过滤整句替换为[内容已屏蔽] matched {word for word in self.sensitive_words if word in text} if matched: return [内容已屏蔽], matched return text, matched def cleanup(self): 清理方法释放资源 self.sensitive_words.clear() self.logger.debug(敏感词集已清空)代码解读与设计要点输入输出模型化使用Pydantic或其他类似库定义强类型的输入输出模型。这不仅是文档更是运行时验证的依据。框架会在调用execute前自动验证传入数据是否符合InputSchema。元数据驱动SkillMetadata类集中定义了技能的所有“身份信息”和“能力声明”。metadata.register装饰器将元数据与类绑定便于框架自动发现和注册。依赖注入init方法接收的context参数是框架注入的执行上下文。技能所需的配置如词库路径、日志器、数据库连接等都应从这里获取而不是在代码中写死。这保证了技能在不同环境开发、测试、生产下的可移植性。策略模式将不同过滤级别抽象为不同的策略函数_filter_low,_filter_medium,_filter_high通过字典映射来调用。这种设计使得增加新的过滤级别如“自定义替换词”非常容易只需扩展字典和实现新函数符合开闭原则。3.2 技能打包与发布代码写好后我们需要将其打包成一个可分发的技能包。通常框架会约定一个标准的项目结构sensitive-filter-skill/ ├── skill.json # 技能元数据文件可由装饰器自动生成 ├── skill.py # 主技能类文件 ├── requirements.txt # Python依赖 ├── README.md └── tests/ # 单元测试然后我们可以使用框架提供的CLI工具或标准包管理工具进行打包和发布# 假设框架CLI工具为 adkit-cli adkit-cli skill build . --output ./dist/sensitive-filter-skill.zip # 发布到技能仓库 adkit-cli skill publish ./dist/sensitive-filter-skill.zip --repo http://your-repo.com发布后这个技能就进入了中央仓库可以被其他系统或编排器搜索和引用了。注意技能包内应尽量避免包含过大的模型文件或数据文件。最佳实践是将这些资源放在对象存储或专门的模型服务器上在技能初始化时按需下载。技能包本身应保持轻量只包含代码和必要的配置文件。4. 技能编排构建复杂工作流单个技能的能力有限真正的威力在于组合。编排器允许我们将多个技能像搭积木一样连接起来形成一个工作流或称管道。我们设计一个“用户评论自动审核”的工作流它涉及三个技能1. 敏感词过滤我们刚写的、2. 情感分析、3. 垃圾内容识别。4.1 工作流定义DSL或YAML许多编排器支持使用领域特定语言DSL或YAML来声明式地定义工作流。以下是一个示例# workflow_comment_audit.yaml name: user_comment_audit version: 1.0 description: 自动审核用户评论包含敏感词、情感和垃圾检测。 tasks: - id: filter_sensitive skill: sensitive_filter_v1 # 引用技能ID inputs: text: {{trigger.comment_text}} filter_level: high outputs: filtered_text: filtered_text has_sensitive: has_sensitive_flag - id: analyze_sentiment skill: sentiment_analysis_v2 inputs: text: {{tasks.filter_sensitive.outputs.filtered_text}} # 引用上游输出 outputs: sentiment: sentiment_score polarity: polarity - id: detect_spam skill: spam_detection_v1 inputs: text: {{trigger.comment_text}} user_id: {{trigger.user_id}} outputs: is_spam: spam_flag confidence: spam_confidence - id: make_decision skill: builtin:decision_maker # 使用内置决策技能 inputs: rules: - condition: {{tasks.filter_sensitive.outputs.has_sensitive_flag}} true action: reject reason: 包含敏感内容 - condition: {{tasks.detect_spam.outputs.is_spam}} true and {{tasks.detect_spam.outputs.confidence}} 0.8 action: reject reason: 疑似垃圾内容 - condition: {{tasks.analyze_sentiment.outputs.polarity}} negative and {{tasks.analyze_sentiment.outputs.sentiment}} -0.5 action: flag_for_review reason: 负面情绪强烈 - condition: default action: approve reason: 通过自动审核 outputs: final_decision: decision reason: decision_reason编排逻辑解析任务依赖analyze_sentiment任务的输入text依赖于filter_sensitive任务的输出filtered_text。编排器会自动解析这种依赖关系形成执行顺序DAG。filter_sensitive和detect_spam可以并行执行因为它们都只依赖于初始输入。数据传递使用{{...}}模板语法引用上游任务的输出或触发器的原始输入。这实现了任务间的数据流动。条件决策make_decision任务是一个内置的决策技能它根据前面多个任务的结果执行一组规则最终产生一个审核决定。这种模式非常常见将业务规则从代码中剥离出来使其更易于配置和修改。错误处理在YAML中通常还可以定义每个任务的错误处理策略例如重试次数、超时时间、失败后的替代任务等。4.2 编排器的执行过程当这个工作流被触发时例如通过API网关收到一条新评论编排器会进行以下操作解析与验证加载YAML文件解析任务依赖生成一个DAG。验证所有引用的技能是否在仓库中可用。计划生成根据DAG和当前资源状态生成一个具体的执行计划。决定哪些任务可以并行执行。任务调度将可执行的任务提交给技能运行时。运行时负责在隔离的环境中加载并执行具体的技能代码。状态管理与监控跟踪每个任务的状态等待、运行、成功、失败、输入输出数据、耗时和资源使用情况。这些信息对于调试和监控至关重要。结果汇总所有任务执行完毕后收集最终输出返回给调用方。实操心得在设计工作流时要特别注意任务的“粒度”。粒度过粗一个技能做太多事会降低复用性粒度过细大量微型技能则会增加编排的复杂度和网络开销。一个好的经验法则是一个技能应专注于完成一件具有明确业务价值的事情。例如“情感分析”是一个合适的技能“文本预处理情感分析结果格式化”就可能过粗了。5. 高级特性与生产级考量一个成熟的技能框架除了核心的执行和编排还必须解决生产环境中遇到的实际问题。5.1 技能版本管理与灰度发布业务在迭代技能也需要升级。框架必须支持技能的版本化。语义化版本控制技能的元数据中包含版本号如1.2.3应遵循主版本.次版本.修订号的规则。当技能接口输入输出Schema发生不兼容变更时升级主版本号新增向下兼容的功能时升级次版本号仅做问题修复时升级修订号。多版本共存与路由编排器在引用技能时可以指定具体版本sensitive_filter_v1:1.0.0也可以使用版本范围sensitive_filter_v1:^1.0.0。生产环境中当发布新版本技能时可以采用灰度策略先让少量工作流例如5%的流量使用新版本1.1.0其余仍使用1.0.0。通过对比监控指标如成功率、延迟确认新版本稳定后再逐步扩大灰度范围直至全量。技能仓库的标签与分类除了版本还可以为技能打上标签如nlp、vision、utility方便检索。建立技能目录对技能进行分类和描述形成团队内部的“技能市场”。5.2 可观测性与调试当由几十上百个技能组成的复杂工作流出错时如何快速定位问题强大的可观测性体系是关键。结构化日志框架应强制或强烈建议技能使用结构化的日志输出如JSON格式。每条日志应包含技能ID、执行IDTrace ID、时间戳、日志级别、消息、以及相关的上下文数据如输入参数的哈希值。这样所有日志可以被集中收集如到ELK或Loki并通过Trace ID串联起一个工作流的所有日志。分布式追踪集成OpenTelemetry等分布式追踪标准。为每个工作流执行生成一个唯一的Trace ID并在调用每个技能时传递下去。这样可以在Jaeger或Zipkin这类工具中可视化整个工作流的调用链清晰看到每个技能的耗时、是否出错是性能瓶颈排查的利器。指标监控框架运行时需要暴露关键指标供Prometheus等监控系统采集。核心指标包括技能调用次数总次数、成功/失败次数技能执行耗时平均、P95、P99延迟技能资源使用率CPU、内存工作流执行成功率、平均耗时基于这些指标可以设置告警例如当某个技能的失败率在5分钟内超过1%时触发告警。技能调试模式开发阶段框架应支持“调试模式”。在此模式下可以拦截并记录每个技能的精确输入和输出。模拟某个技能失败或返回特定值测试工作流的容错性。单步执行工作流暂停在某个任务点检查中间状态。5.3 安全与权限控制当技能可能处理敏感数据或访问关键系统时安全至关重要。技能沙箱对于不可信或第三方提供的技能必须在严格的沙箱环境中运行。这可以通过容器如Docker、gVisor、Firecracker微虚拟机甚至WebAssembly运行时来实现。沙箱限制了技能对主机文件系统、网络和系统调用的访问。输入输出净化与验证尽管有输入Schema验证但仍需防范注入攻击。对于文本输入要警惕命令注入、SQL注入等对于文件输入要检查文件类型和大小。输出到下游技能或外部系统前也应进行适当的编码或转义。基于角色的访问控制RBAC在技能网关和工作流编排器层面实施RBAC。定义不同的角色如“数据分析师”、“运维工程师”、“技能开发者”并为角色分配权限数据分析师可以执行预定义的工作流但不能修改。技能开发者可以发布新版本技能到测试仓库。运维工程师可以管理技能运行时和编排器配置查看所有监控数据。密钥与凭证管理技能访问数据库、API等所需的密钥绝不能硬编码在代码或配置文件中。应使用框架集成的密钥管理服务如HashiCorp Vault、AWS Secrets Manager技能在初始化时通过上下文安全地获取这些凭证。6. 实战避坑指南与性能优化基于我过去在类似系统上的实践经验这里分享几个最容易踩坑的地方和优化技巧。6.1 常见问题与排查问题1技能执行超时但日志没有错误。排查思路检查技能初始化超时可能发生在init()阶段比如加载一个巨大的模型文件。在init方法开始和结束处打上日志确认耗时。检查外部依赖技能在执行中是否调用了外部API、数据库或缓存网络延迟或对方服务阻塞是常见原因。为所有外部调用设置合理的超时和重试机制。检查资源竞争如果多个技能实例共享一个资源如一个数据库连接池可能发生锁竞争。检查技能是否是线程安全的或者考虑使用连接池。使用性能分析工具在测试环境使用cProfile或py-spy对技能代码进行性能剖析找到热点函数。问题2工作流中A技能成功但B技能报“输入验证失败”。排查思路对比Schema仔细检查A技能声明的OutputSchema和B技能声明的InputSchema。字段名、类型、是否可选Optional必须完全匹配。一个常见的坑是A输出一个整数countB却期望一个字符串count。检查数据转换如果框架支持数据映射或转换检查映射规则是否正确。有时上游输出的是一个复杂对象{data: {text: hello}}下游期望的却是直接的字符串hello。查看实际数据在调试模式下捕获A技能的实际输出与B技能收到的输入进行对比。可能是框架在传递过程中发生了意料之外的数据序列化/反序列化问题如日期时间对象被转为字符串。问题3技能在本地测试正常发布到生产环境后失败。排查思路环境差异这是最常见的原因。检查生产环境的Python版本、操作系统、依赖库版本是否与本地一致。使用Docker容器化技能是解决此问题的银弹。文件路径与权限技能代码中使用的相对路径在生产环境可能无效。所有文件路径都应通过上下文配置获取或使用绝对路径。同时检查技能运行时进程是否有权读写所需目录。网络策略生产环境的网络策略可能阻止技能访问外部互联网或内部服务。确认技能所需的网络出口和入口在白名单中。资源限制生产环境可能对容器或进程的内存、CPU有更严格的限制。检查技能是否因内存不足OOM被终止。6.2 性能优化技巧技巧1技能预热与池化对于初始化耗时长的技能如加载AI模型不要在每次执行时都初始化。可以利用框架的生命周期在技能运行时启动时就预先初始化预热一批技能实例放入实例池。当有执行请求到来时直接从池中获取一个已初始化的实例执行完毕后再放回池中。这能极大减少冷启动延迟。技巧2异步与非阻塞设计如果技能涉及大量I/O操作网络请求、磁盘读写务必使用异步编程如Python的asyncio。这允许单个技能实例在等待I/O时释放控制权去处理其他请求从而用更少的资源支持更高的并发。确保整个技能框架的调用栈都是异步的避免在同步上下文中调用异步技能。技巧3结果缓存对于计算密集型且输入相同的技能可以考虑引入缓存。例如一个“地址标准化”技能对于同一个原始地址字符串其标准化结果是固定的。可以在技能内部实现一个简单的LRU缓存或者使用外部的Redis等缓存服务。但要注意缓存失效策略确保数据一致性。技巧4批量处理支持如果业务场景允许可以设计技能支持批量输入。例如“情感分析”技能一次处理100条文本通常比循环调用100次效率高得多因为减少了网络开销和模型加载的重复计算。在技能接口设计时可以考虑让输入支持列表类型。技巧5监控驱动优化持续关注前面提到的性能指标。通过分布式追踪定位耗时最长的技能瓶颈针对性地进行优化。观察资源使用率对于CPU密集型的技能可以分配更多的CPU限制对于内存密集型的则保证足够的内存。根据监控数据动态调整技能实例的副本数量扩缩容。7. 生态建设与团队协作最后一个技能框架的成功不仅在于技术更在于围绕它建立的生态和团队工作流。制定团队规范包括技能的代码规范目录结构、命名、日志格式、版本管理流程、测试覆盖率要求、文档标准等。可以提供一个技能模板生成器adkit-cli skill new让开发者一键生成符合规范的项目骨架。建立CI/CD流水线技能的开发、测试、发布应自动化。流水线可以包括代码风格检查、单元测试、集成测试在模拟编排器中运行、安全扫描依赖漏洞、代码安全、打包、发布到测试仓库。只有通过所有检查的技能包才能被发布到生产仓库。技能市场与文档中心建立一个内部网站展示所有已发布的技能包含详细的文档、示例、版本历史、性能指标和用户评价。开发者可以在这里发现和复用已有技能避免重复造轮子。文档中心应支持从技能代码和元数据中自动生成API文档。度量与激励跟踪技能的复用次数、带来的业务价值、故障率等指标。对于创建了高质量、高复用度技能的团队或个人给予认可和激励。这能鼓励大家贡献技能形成良性循环。构建“adkit/skills”这样的技能框架本质上是在构建一种内部的能力中台和开发生态。它通过标准化和工程化将团队的能力资产沉淀下来使得快速组装复杂应用成为可能。这个过程初期会有一定的学习和开发成本但一旦体系运转起来其对研发效率和系统稳定性的提升将是巨大的。从写好第一个标准的“技能”开始逐步完善编排、监控、安全等周边设施你的团队就走上了一条通往高度自动化和智能化的道路。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2621010.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…