ductor:基于YAML的AI提示词工作流编排与自动化执行引擎详解

news2026/5/3 9:14:28
1. 项目概述一个为AI提示词而生的“指挥家”如果你和我一样深度使用过各种大语言模型那你一定有过这样的体验为了完成一个复杂的任务比如写一份详细的市场分析报告你需要反复和AI对话。先让它生成大纲再让它填充每个章节接着润色语言最后可能还要调整格式。这个过程里你不断地复制、粘贴、修改提示词不仅效率低下而且一旦中间某步出错整个流程就得重来非常痛苦。这就是ductor项目要解决的核心痛点。它不是一个简单的提示词管理工具而是一个提示词编排与自动化执行引擎。你可以把它想象成乐队的指挥Conductor而一个个独立的提示词Prompt就是乐手。ductor的作用就是让你能够像指挥家一样精心编排这些“乐手”的出场顺序、演奏内容和协作方式最终演奏出一首完整、复杂的交响乐——也就是你最终想要的那个高质量、结构化的输出。我第一次在 GitHub 上看到PleasePrompto/ductor这个仓库时就被它的理念吸引了。它没有把自己局限在“保存和复用提示词”这个层面而是向前迈了一大步提出了“提示词工作流”的概念。这意味着你可以将一次复杂的AI交互拆解成多个可复用、可组合、可条件分支的步骤然后让ductor自动、可靠地替你执行。这对于需要批量处理文档、自动化生成内容、或者构建复杂AI应用原型的开发者来说价值巨大。简单来说ductor能帮你做三件事编排复杂任务把一个大任务拆成小步骤定义步骤间的依赖和传递关系。实现自动化执行写好流程后一键运行ductor会按顺序调用AI并自动将上一步的输出作为下一步的输入。提升结果可靠性与可复现性每次执行都遵循相同的流程避免了人工操作的不确定性结果稳定可追溯。接下来我将以一个实际的场景为例带你从零开始彻底拆解ductor的核心设计、使用方法并分享我在深度使用中积累的实战经验和避坑指南。2. 核心设计理念与架构拆解在开始动手之前理解ductor的设计哲学至关重要。这能帮助你在构建自己的工作流时做出更合理的设计决策。2.1 为什么是“工作流”而不仅仅是“模板”市面上已经有很多提示词模板工具了它们大多解决了“保存”和“快速插入”的问题。但ductor瞄准的是更上游的“逻辑”问题。想象一下你要用AI帮你分析一篇技术文章并生成社交媒体推文。一个模板工具可能会给你两个框一个贴文章一个出推文。但实际过程中你可能需要先让AI总结文章核心观点再根据总结提取3个关键亮点最后结合亮点和总结生成不同风格的推文。这是一个有明确顺序和依赖关系的流程。ductor将这个过程抽象为三个核心概念步骤Step流程中最基本的执行单元。通常对应一次对AI模型的调用包含一个提示词模板和相关的配置如模型、温度参数。工作流Workflow由多个步骤按照特定顺序和逻辑连接起来的有向无环图DAG。它定义了任务的完整执行蓝图。上下文Context在工作流执行过程中用于在步骤之间传递数据的共享存储空间。上一步的输出可以被写入上下文供后续步骤读取和使用。这种设计带来的最大好处是“关注点分离”。你可以专注于设计每个独立步骤的提示词使其尽可能高效和通用同时在流程层面你可以自由地组合这些步骤构建出千变万化的复杂任务而无需重复编写粘合代码。2.2 核心架构与执行引擎ductor的架构可以简单理解为“定义”和“运行”两部分。定义层YAML/JSONductor通常使用 YAML 或 JSON 这类声明式配置文件来定义工作流。这种方式的优势是清晰、易读、易版本控制。一个典型的工作流文件会包含工作流的元信息名称、描述、版本。需要使用的AI模型后端配置例如OpenAI API 密钥和基础URL。步骤列表每个步骤定义了其名称、使用的提示词模板、输入变量来源、输出变量命名等。步骤之间的依赖关系声明。执行引擎 这是ductor的大脑。当你运行一个工作流时引擎会解析配置文件构建出步骤的依赖关系图。按照拓扑顺序确保依赖的步骤先执行遍历所有步骤。对于每个步骤从上下文或外部输入中收集该步骤所需的所有输入变量。将输入变量“填充”到该步骤的提示词模板中生成最终的提示词。调用配置好的AI模型API发送请求。接收AI的响应根据预定义的解析规则如提取JSON、截取特定标记之间的文本处理响应。将处理后的结果写入上下文供后续步骤使用。所有步骤执行完毕后输出最终结果或保存所有中间结果。这个引擎隐藏了所有HTTP请求、错误重试、速率限制处理、结果解析的复杂性让你只需要关心业务逻辑本身。2.3 与同类工具的差异化思考你可能会问这和用 Python 脚本自己调用 API 有什么区别和LangChain、AutoGen这类框架又有什么不同vs 原生脚本自己写脚本灵活性最高但你需要处理每一个细节API调用、错误处理、状态管理、结果解析。ductor通过声明式配置和引擎提供了“开箱即用”的标准化解决方案极大地提升了开发效率降低了维护成本尤其适合快速构建和迭代AI流程。vs LangChainLangChain是一个功能极其强大的AI应用开发框架其Chain的概念与ductor的工作流类似。但LangChain更“重”学习曲线更陡峭它集成了大量组件记忆、索引、工具调用等适合构建复杂的生产级应用。ductor则更“轻”、更专注它就是一个纯粹的提示词工作流运行器配置更简单直观非常适合自动化那些相对固定、不需要复杂内存或工具交互的任务上手速度极快。vs AutoGenAutoGen专注于多智能体对话协作智能体之间通过对话来推进任务。ductor的工作流是预定义、确定性的步骤之间通过结构化数据上下文传递信息更适合流程清晰、输出结构化的任务。我的选择心得如果你的任务流程固定输入输出明确追求极致的配置化和执行效率ductor是绝佳选择。如果你需要智能体之间动态讨论、工具调用等更复杂的能力那么LangChain或AutoGen更合适。很多时候我会用ductor来快速验证一个复杂提示词流程的可行性成功后再考虑是否用更重的框架进行工程化封装。3. 从零开始构建你的第一个工作流理论说了这么多我们直接动手。假设我们要实现前面提到的“文章分析到推文生成”的流程。我们将创建一个名为article_to_tweets.yaml的工作流文件。3.1 环境准备与基础配置首先你需要安装ductor。通常它是一个Python包可以通过pip安装pip install dactor # 注意包名可能是 dactor 或 ductor请以官方仓库为准此处为示例接下来准备你的API密钥。ductor支持多种后端最常见的是OpenAI。在你的项目根目录创建一个.env文件来管理密钥永远不要将密钥硬编码在配置文件中OPENAI_API_KEYsk-your-secret-key-here OPENAI_BASE_URLhttps://api.openai.com/v1 # 如果你使用第三方代理可能需要修改此处现在创建article_to_tweets.yaml我们从工作流的基础配置开始name: 文章分析与推文生成流水线 description: 自动分析技术文章核心内容并生成多种风格的社交媒体推文 version: 1.0 # 配置执行引擎和AI模型 engine: type: openai # 指定使用OpenAI引擎 config: api_key: ${OPENAI_API_KEY} # 从环境变量中读取密钥 base_url: ${OPENAI_BASE_URL} default_model: gpt-4o-mini # 设置默认模型可在步骤中覆盖 # 定义工作流的输入参数。执行时需要从外部传入。 inputs: article_text: type: string description: 待分析的原始文章文本 target_platforms: type: array description: 需要生成推文的平台列表如 [Twitter, LinkedIn] default: [Twitter, LinkedIn]关键点解析engine.config这里使用了${ENV_VAR}的语法来引用环境变量这是保证安全的最佳实践。inputs定义了工作流对外部的依赖。运行工作流时你必须提供article_text的值。target_platforms有默认值可以覆盖。default_model设置了全局默认模型。对于总结、提取等任务使用gpt-4o-mini这类小型模型性价比很高对于需要创造力的最终生成步骤我们可以在步骤中指定更强大的模型。3.2 设计步骤与提示词模板我们的流程分为三个步骤总结核心提取文章的核心摘要和关键要点。提取亮点从总结中提炼出最具传播力的3个亮点。生成推文针对不同的社交平台生成风格匹配的推文。让我们一步步实现。步骤1总结核心steps: - name: summarize_article description: 总结文章核心内容 template: | 你是一位资深技术编辑。请仔细阅读以下文章并完成以下任务 1. 用一段话不超过200字概括文章的核心论点。 2. 提炼出文章支持的3个主要分论点或关键证据。 3. 指出这篇文章的目标读者是谁。 文章内容 {{article_text}} 请以JSON格式输出包含以下字段core_summary, key_points (数组), target_audience。 inputs: article_text: { from: input } # 输入来自工作流的外部输入 article_text outputs: summary_result: { from: result } # 将AI的完整响应结果存入上下文变量名为 summary_result model: gpt-4o-mini # 使用性价比高的模型 temperature: 0.2 # 低温度确保总结的准确性和一致性步骤2提取亮点- name: extract_highlights description: 从总结中提取社交媒体传播亮点 template: | 基于以下文章总结提取出3个最可能吸引眼球、引发讨论或转发的“亮点”。每个亮点应该是一句完整的、吸引人的陈述句。 文章总结 {{summary_result}} 请直接输出一个JSON数组每个元素是一个亮点字符串。 inputs: summary_result: { from: context.summary_result } # 输入来自上一步输出的上下文 outputs: highlights: { from: result } depends_on: [summarize_article] # 显式声明依赖确保上一步先执行 model: gpt-4o-mini temperature: 0.3步骤3生成推文动态多步骤这是最精彩的部分。我们需要为inputs.target_platforms列表中的每一个平台生成一条推文。ductor支持foreach循环来实现这种动态步骤。- name: generate_tweets description: 为不同平台生成风格化推文 foreach: platform: { from: input.target_platforms } # 遍历输入中的平台列表 template: | 你是一位专业的社交媒体运营。请为 {{platform}} 平台创作一条推广推文。 推文要求 - 风格需符合 {{platform}} 平台的调性例如Twitter简短犀利LinkedIn专业严谨。 - 必须包含文章的核心亮点之一来吸引点击。 - 推文长度需适配平台限制Twitter约280字符LinkedIn可稍长。 - 需要添加2-3个相关的热门话题标签Hashtag。 文章核心亮点 {{highlights}} 文章目标受众{{summary_result.target_audience}} 请输出JSON格式{“platform”: “平台名” “content”: “推文内容” “hashtags”: [“#标签1” “#标签2”]}。 inputs: platform: { from: iteration.platform } # foreach 循环中当前迭代项通过 iteration 访问 highlights: { from: context.highlights } summary_result: { from: context.summary_result } outputs: tweet_for_{{platform}}: { from: result } # 动态输出变量名每条推文独立存储 depends_on: [extract_highlights] model: gpt-4 # 生成创意内容使用能力更强的模型 temperature: 0.7 # 提高温度增加创造性3.3 执行与输出配置最后我们需要定义工作流的最终输出。我们希望拿到所有生成的推文。outputs: final_summary: { from: context.summary_result } all_tweets: # 收集所有以 tweet_for_ 开头的上下文变量 from: context filter: ^tweet_for_现在一个完整的工作流就定义好了。你可以使用ductor的命令行工具来运行它ductor run article_to_tweets.yaml \ --input article_text$(cat your_article.txt) \ --input target_platforms[Twitter, LinkedIn, Mastodon]执行后ductor会按顺序运行每个步骤并在控制台或指定文件中输出final_summary和all_tweets的结果。4. 高级技巧与实战经验掌握了基础用法后下面这些技巧能让你真正发挥ductor的威力并避开我踩过的那些坑。4.1 提示词模板的设计与调试黄金法则单一职责明确指令每个步骤的提示词应该只做一件事并且指令要极其清晰。避免让AI在一个步骤里做多件逻辑不相关的事。例如不要把“总结”和“评价”放在同一个提示词里。清晰的指令能极大提高输出的稳定性和质量。结构化输出是生命线务必要求AI以结构化格式如JSON、XML、或使用特定标记如 输出。ductor可以配置parser来提取结构化数据。例如在步骤配置中outputs: structured_data: from: result parser: type: json # 指定解析器为JSON # 或者使用 regex 提取特定部分 # type: regex # pattern: ## 总结开始 ##(.*?)## 总结结束 ##这能确保下游步骤拿到的是干净、可预测的数据而不是需要再次解析的自然语言文本。迭代与调试技巧独立测试在将提示词放入工作流前先用ChatGPT或API调试工具单独测试确保它能稳定返回你想要的格式。使用--dry-run很多工作流引擎支持空跑模式可以检查步骤依赖和输入输出映射是否正确而不实际调用API。查看中间结果在开发阶段配置工作流输出所有中间上下文变量方便你定位是哪个步骤出了问题。4.2 复杂流程控制条件判断与错误处理简单的线性流程不够用ductor通常支持更复杂的控制逻辑。条件执行Conditional Steps 你可以根据上游步骤的结果决定是否执行某个步骤。这在需要分支判断的场景下非常有用。例如如果文章总结的情绪是负面的则生成一种应对策略的推文如果是正面的则生成另一种。- name: “decide_tone” # ... 分析文章情绪输出 sentiment 字段 - name: “generate_positive_tweet” template: “...生成正面推文...” when: “{{context.decide_tone.sentiment}} ‘positive’” # 条件表达式 depends_on: [“decide_tone”] - name: “generate_negative_response” template: “...生成危机公关回应...” when: “{{context.decide_tone.sentiment}} ‘negative’” depends_on: [“decide_tone”]错误处理与重试 网络波动或API限制可能导致步骤失败。一个健壮的工作流需要容错机制。- name: “call_llm” template: “...” retry: max_attempts: 3 # 最大重试次数 delay: 1s # 重试间隔 backoff_multiplier: 2 # 退避乘数1s, 2s, 4s... on_failure: # 可以执行一个补救步骤例如记录日志、发送通知、或使用备选方案 - name: “log_error” template: “步骤 {{step.name}} 失败错误{{error}}” run: “echo” # 这里示例是执行shell命令实际可能调用其他处理程序配置合理的重试策略可以自动应对暂时的API故障。4.3 性能优化与成本控制当工作流步骤很多或需要处理大量数据时性能和成本就成为关键考量。并行化执行 如果步骤之间没有依赖关系ductor可以并行执行它们以节省时间。在上面的例子中为不同平台生成推文的步骤如果设计得当理论上可以并行。这需要在工作流定义中明确指出步骤是独立的或者依赖同一个父步骤。引擎会自动优化执行计划。模型选型策略“小模型思考大模型创作”这是我遵循的核心原则。像总结、分类、提取这类理解性任务使用gpt-4o-mini、claude-3-haiku等小型模型成本可能只有大模型的十分之一甚至百分之一且速度更快效果足够好。只在关键时刻用大模型像最终的内容生成、需要高度创造性或复杂推理的步骤再切换到GPT-4或Claude-3-Opus这类大模型。在我们的工作流中前两步都用gpt-4o-mini只有最后生成推文用了GPT-4这就是一个典型的成本优化案例。设置Token上限在步骤配置中始终设置max_tokens参数防止AI“废话连篇”产生不必要的费用和输出冗余。缓存中间结果 对于输入不变且结果确定的步骤例如对同一篇文章的总结可以考虑启用缓存。一些高级的ductor实现或你可以自己在外层实现一个缓存层将(提示词输入)的哈希值作为键存储结果。下次相同请求直接返回缓存能显著降低成本和延迟。5. 常见问题与排查指南在实际使用中你肯定会遇到各种问题。下面是我整理的一些典型问题及其解决方法。问题现象可能原因排查步骤与解决方案步骤执行失败报错Missing input variable: XXXX1. 输入变量名拼写错误。2. 依赖的步骤未成功执行或未输出指定变量。3.from路径指定错误如input写成了context。1. 仔细检查YAML中inputs部分的变量名是否与模板中的{{}}占位符完全一致。2. 检查依赖步骤的outputs部分确认变量名是否正确输出。3. 使用--verbose或调试模式运行查看每一步执行前的上下文快照。AI返回的内容格式不符合预期导致后续步骤解析失败1. 提示词指令不够清晰未强制要求结构化输出。2. 温度temperature参数过高导致输出随机性大。3. 模型能力不足无法严格遵守复杂格式。1. 强化提示词指令例如“你必须以以下JSON格式输出...”。2. 降低temperature值如设为0.1-0.3增加确定性。3. 对于复杂JSON输出在提示词中给出一个清晰的示例One-shot/Few-shot learning。4. 考虑升级到更强大的模型如从gpt-3.5-turbo切换到gpt-4。工作流执行速度很慢1. 步骤是顺序执行且其中有耗时长的步骤。2. 网络延迟或API响应慢。3. 使用了较大、较慢的模型。1. 检查步骤依赖图看是否有可以改为并行执行的独立步骤。2. 为耗时步骤配置更长的超时时间。3. 评估是否所有步骤都需要大模型尝试将部分步骤替换为小模型或本地模型。4. 考虑对API调用实施批量处理如果支持。成本超出预期1. 未设置max_tokens导致生成长文本。2. 在不需要的步骤使用了昂贵模型。3. 工作流被意外多次触发执行。1.务必在每个步骤设置合理的max_tokens。2. 实施前述的“模型选型策略”严格区分大小模型的使用场景。3. 在开发环境使用模拟响应或小模型进行测试。4. 为API密钥设置用量告警和预算限制。foreach循环中动态变量名无法被下游步骤引用下游步骤引用动态变量名时语法错误或引擎不支持。1. 确认ductor版本是否支持在后续步骤中通过模式匹配如context.tweet_for_*或集合方式引用循环输出。2. 更稳妥的做法是让foreach步骤输出到一个数组变量中例如all_tweets: { from: context, gather: “tweet_for_.*” }下游步骤直接引用这个数组。3. 查阅官方文档关于循环输出引用的具体语法。调试心法当工作流出错时不要试图一次性看完整条链路。采用“二分法”和“隔离法”。首先单独运行出错的步骤提供模拟的输入看它是否能正确工作。如果能问题很可能出在输入数据的传递上如果不能问题就在该步骤的提示词或配置本身。将复杂问题分解是调试自动化流程的关键。6. 进阶应用场景与生态整合ductor的潜力远不止于内容生成。当你熟悉其核心模式后可以将其应用到更广阔的领域。场景一自动化代码审查与生成你可以构建一个工作流1) 分析Git Diff识别变更内容2) 根据变更调用静态分析工具3) 让AI基于分析结果生成代码审查意见4) 对于简单的缺陷如拼写错误甚至可以让AI直接生成修复建议代码片段。这能将代码审查的初步工作自动化。场景二多模态内容生产流水线结合图像识别和生成API。例如1) 输入一个产品描述2) 步骤A生成营销文案3) 步骤B根据文案生成提示词4) 步骤C调用文生图API生成配图5) 步骤D将文案和图片合成社交媒体海报。一个工作流从文字描述到最终的海报资产全自动完成。场景三与现有系统集成ductor可以通过命令行、Python SDK 或 Webhook 被触发。这意味着你可以将其集成到CI/CD管道中在代码合并前自动生成更新日志。作为一个微服务接收来自其他系统的请求如客服系统传入用户问题自动生成标准答复草案。定时触发例如每天早晨自动抓取行业新闻分析总结后发送到你的邮箱。生态工具链版本控制工作流YAML文件非常适合用Git管理可以清晰地看到提示词和流程的迭代历史。变量与密钥管理使用像HashiCorp Vault、AWS Secrets Manager或简单的.env文件来管理API密钥切勿硬编码。监控与日志为ductor的执行过程添加日志记录将关键步骤的输出、耗时和错误信息收集到如ELK、Datadog等监控平台便于分析和告警。ductor这类工具的出现标志着AI应用开发正从“手工对话”走向“工程化流水线”。它降低了构建复杂AI流程的门槛让开发者能更专注于业务逻辑和提示词质量本身。我个人的体会是投资时间学习并搭建好几个核心工作流模板后日常工作中那些重复性的、需要多步AI交互的任务效率提升了不止一个数量级。更重要的是它让结果变得可预测、可复现这才是工程化的真正价值所在。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2577822.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…