迭代式代码进化:基于进化算法与LLM的自动化代码优化系统

news2026/5/13 5:53:47
1. 项目概述当代码学会自我进化最近在GitHub上看到一个挺有意思的项目叫aaronjmars/iterative-code-evolution。光看名字你可能会觉得这又是一个关于“代码生成”或者“AI编程”的常规项目。但当我深入进去把玩了一番之后发现它的核心思路有点不一样。它不是在简单地用大模型比如GPT-4去生成一段静态的、一次性的代码。相反它构建了一个让代码能够“自我迭代进化”的自动化系统。想象一下这个场景你有一个模糊的想法比如“写一个Python函数它能从网页上抓取数据然后自动生成一份数据报告”。传统的AI辅助编程可能是你向ChatGPT描述这个需求它给你一段代码然后你手动去调试、修改、补充。而iterative-code-evolution的思路是你只需要给出一个初始的、可能非常简陋甚至不完整的代码片段再配上一些测试用例和进化目标比如“让所有测试通过”、“提高代码效率”、“增加错误处理”然后启动这个系统。它会像一个不知疲倦的、拥有超强学习能力的程序员不断地分析现有代码的问题调用AI模型生成改进版本运行测试验证保留成功的改进然后继续下一轮优化。如此循环直到代码达到你设定的目标或者迭代次数用尽。这背后的核心其实是将进化算法的思想应用到了代码生成和优化上。在生物学中进化是通过“变异”、“交叉”和“自然选择”来推动的。在这个项目里“变异”和“交叉”由大语言模型LLM来执行——它基于现有代码和上下文生成新的、略有不同的代码变体。“自然选择”则由我们设定的测试套件和评估标准来充当——只有通过了测试、满足了评估条件的代码变体才能“存活”下来进入下一轮进化。这个项目解决的核心痛点我认为有两个。第一降低了对提示工程Prompt Engineering的过度依赖。你不必再费尽心思去构思一个完美无缺的、能一次性生成理想代码的提示词。你只需要提供一个起点和评判标准系统会帮你探索可能性。第二实现了代码质量的自动化、持续提升。它不仅能修复bug还能在架构、性能、可读性等多个维度上对代码进行优化这个过程是自动化的、可重复的。它非常适合哪些场景呢我觉得有几类开发者会特别喜欢它一是快速原型构建者他们有一个核心逻辑的雏形需要快速将其完善成一个健壮、可用的模块二是代码重构爱好者或被迫进行重构的开发者面对遗留代码可以设定清晰的优化目标如提高测试覆盖率、解耦函数让系统自动尝试重构方案三是算法竞赛选手或学习者可以提供一个基础解法让系统尝试优化其时间或空间复杂度四是对AI编程辅助工具有深度定制需求的团队可以基于此框架构建自己内部的代码自动化评审与优化流水线。简单来说iterative-code-evolution不是一个替你写代码的“代笔”而是一个驱动代码不断变得更好的“教练”或“进化引擎”。接下来我就结合自己的实际体验拆解一下这个项目的设计思路、核心玩法以及那些值得注意的“坑”。2. 核心架构与工作流拆解要理解这个项目怎么用首先得弄明白它内部是怎么运转的。整个系统的架构可以看作一个经典的“计划-执行-评估”循环但执行者换成了大语言模型。2.1 进化循环一个自我改进的自动化闭环整个系统的核心是一个循环我把它称为“进化循环”。每一次循环都试图让代码向更好的方向迈进一步。这个循环通常包含以下几个关键阶段分析与计划系统首先会审视当前的代码版本。它会结合你提供的上下文如问题描述、之前的进化历史、失败的测试信息分析代码可能存在的问题或改进方向。然后它会生成一个“进化计划”。这个计划不是代码而是一段文本描述比如“当前函数缺少对输入参数为None的处理计划添加条件判断并返回默认值”或者“这个循环可以改为列表推导式以提高可读性和性能”。这个计划阶段至关重要它让AI的“思考过程”变得可见也决定了后续行动的方向。执行与变异基于上一步制定的计划系统会调用配置好的大语言模型例如GPT-4、Claude 3等。它会将当前代码、进化计划、以及相关的上下文如整个文件内容、导入的模块等一起作为提示词Prompt发送给模型。模型的职责就是根据这些信息生成一个新的、修改后的代码版本。这就是“变异”的过程——在原有代码的基础上产生一个新的“个体”。验证与选择新生成的代码不会直接被采纳。系统会立即运行你预先准备好的测试套件。这些测试是进化的“选择压力”。只有通过了所有测试或者通过了关键测试取决于你的配置的代码变体才会被认为是“适应环境”的从而被保留下来成为新的“当前最佳代码”。如果新代码导致测试失败它就会被淘汰系统可能会基于失败信息如报错日志开始新一轮的分析和计划尝试另一种改进方向。记录与迭代无论成功与否这一次循环的详细信息原始代码、计划、新代码、测试结果都会被记录下来。如果成功系统会用新代码替换旧代码并基于这个新的基准开始下一轮进化。如果失败系统可能会调整策略比如更详细地分析错误或者尝试一个更保守的修改方案。这个过程会一直持续直到达到预设的迭代次数上限或者满足了某个终止条件如所有测试通过且代码风格评分达标。这个循环的强大之处在于它的自动化和目标导向性。你作为用户只需要定义好“什么是好代码”通过测试和评估标准然后启动系统它就会自动地、孜孜不倦地朝着那个目标前进尝试各种可能的路径。2.2 关键组件角色解析为了实现上述循环项目定义了几个核心的组件理解它们有助于你进行定制和调试。进化器Evolver这是系统的大脑负责协调整个循环。它控制着何时进行分析、何时调用模型、如何评估结果。项目中可能提供了不同的进化策略比如“贪婪进化”只保留绝对优于当前版本的变体或“探索性进化”允许暂时性的性能回退以探索更优解。模型客户端Model Client这是与外部大语言模型API如OpenAI、Anthropic通信的抽象层。它负责格式化请求、处理响应、管理token计数和API错误。你需要在这里配置你的API密钥和想要使用的模型。评估器Evaluator这是进化的“裁判”。它的核心工作是运行测试但它的能力可以扩展。除了简单的“通过/失败”一个复杂的评估器还可以计算代码的静态分析指标如圈复杂度、代码行数。运行性能基准测试比较执行时间或内存占用。检查代码风格是否符合规范如PEP 8。评估生成的代码是否引入了安全漏洞初步的代码扫描。上下文管理器Context Manager代码不是孤立存在的。这个组件负责管理和提供进化所需的上下文信息。这包括整个代码文件的内容。项目目录结构。相关的配置文件如requirements.txt,pyproject.toml。之前的进化历史记录。用户提供的额外说明文档。 丰富的上下文是LLM能够做出合理修改的关键否则它很可能写出脱离项目实际、无法运行的代码。注意项目的具体实现中这些组件的名称和结构可能略有不同但思想是相通的。你需要阅读项目的核心源码通常是evolution.py,evaluator.py这类文件来了解其具体实现。3. 从零开始环境配置与初体验理论讲得再多不如亲手跑一遍。下面我就带你一步步搭建环境并完成一次最简单的代码进化实验。3.1 基础环境搭建假设你已经在本地安装了Python建议3.9以上版本和Git。首先克隆项目代码到本地git clone https://github.com/aaronjmars/iterative-code-evolution.git cd iterative-code-evolution接下来创建一个独立的Python虚拟环境。这是一个好习惯可以避免依赖冲突。# 使用 venv python -m venv venv # 激活虚拟环境 # 在 Windows 上 venv\Scripts\activate # 在 macOS/Linux 上 source venv/bin/activate激活虚拟环境后安装项目依赖。通常项目根目录会有一个requirements.txt或pyproject.toml文件。pip install -r requirements.txt # 或者如果使用 poetry # poetry install最关键的一步配置大语言模型的API密钥。这个项目需要调用如OpenAI的GPT系列模型因此你需要一个有效的API密钥。前往OpenAI平台或其他你选择的模型提供商注册并获取API密钥。在本地设置环境变量。这是最安全、最推荐的方式。# 在 macOS/Linux 的终端中 export OPENAI_API_KEY你的-api-key-here # 在 Windows 的 PowerShell 中 $env:OPENAI_API_KEY你的-api-key-here你也可以将这条命令添加到你的shell配置文件如.bashrc,.zshrc中避免每次重启终端都要重新设置。实操心得强烈建议使用环境变量来管理密钥而不是硬编码在代码里。这不仅安全也便于在不同项目间切换。另外初次使用请注意API的调用成本可以从便宜的模型如gpt-3.5-turbo开始实验。3.2 你的第一次进化修复一个Bug让我们从一个最简单的例子开始让系统自动修复一个函数中的Bug。假设我们有一个文件buggy_code.py内容如下# buggy_code.py def calculate_average(numbers): 计算列表中数字的平均值。 total sum(numbers) average total / len(numbers) # 这里有一个潜在的Bug如果numbers为空列表会抛出ZeroDivisionError return average # 测试用例 if __name__ __main__: print(calculate_average([1, 2, 3, 4, 5])) # 应该输出 3.0 print(calculate_average([])) # 这里会崩溃我们的目标是让系统进化这个代码使其能够正确处理空列表的情况例如返回0或None或者抛出一个更友好的异常。首先我们需要为这个函数编写一个简单的测试。创建一个文件test_buggy_code.py# test_buggy_code.py import pytest from buggy_code import calculate_average def test_average_normal(): assert calculate_average([1, 2, 3, 4, 5]) 3.0 def test_average_empty_list(): # 我们期望它处理空列表而不是崩溃。具体行为可以是返回0返回None或抛出ValueError。 # 这里我们先假设我们希望它返回0。 assert calculate_average([]) 0现在我们需要配置进化任务。查看项目文档通常需要创建一个配置文件或直接使用命令行工具。假设项目提供了一个命令行接口evolve我们可以这样运行# 假设的调用方式具体命令请参考项目README evolve --file buggy_code.py --test-file test_buggy_code.py --iterations 5 --model gpt-4这个命令告诉系统以buggy_code.py中的代码为起点使用test_buggy_code.py中的测试作为验证标准使用GPT-4模型最多进行5轮进化。系统内部可能会发生什么第一轮系统读取代码和测试发现test_average_empty_list测试失败了因为除零错误。分析计划可能是“检测到函数在numbers为空时会导致除零错误。计划修改函数在计算前检查列表长度如果为空则返回0。”执行LLM生成修改后的代码可能是在total sum(numbers)前加上if not numbers: return 0。验证运行测试两个测试都通过了进化成功新代码被保留。后续轮次既然主要Bug已修复系统可能会尝试其他改进比如添加类型提示、改进文档字符串、或者将除法改为更安全的statistics.mean。只要这些改进不破坏测试它们就会被采纳。几轮之后你最终得到的buggy_code.py可能已经焕然一新不仅修复了Bug代码质量和健壮性也得到了提升。3.3 配置文件与高级参数解读对于更复杂的任务你很可能需要通过一个配置文件如config.yaml或evolution_config.json来精细控制进化过程。以下是一些关键参数及其含义# 示例 config.yaml evolution: # 进化目标描述给LLM看的“任务说明书” objective: 优化函数的性能和可读性确保所有测试通过并添加适当的类型注解和错误处理。 # 最大进化轮次 max_iterations: 10 # 每轮生成几个候选变体探索广度 num_candidates: 3 # 选择策略best (只选最好的), elite (保留前N个) selection_strategy: best model: # 使用的模型提供商和型号 provider: openai name: gpt-4-turbo-preview # 温度参数控制创造性。对于代码生成通常较低0.1-0.3以获得更确定性的输出。 temperature: 0.2 # 最大token数限制响应长度 max_tokens: 2000 evaluation: # 测试命令例如使用pytest test_command: pytest {test_file} -v # 除了测试还可以定义其他评估标准 metrics: - name: cyclomatic_complexity weight: 0.3 # 权重用于综合评分 target: lower # 目标是降低圈复杂度 - name: lines_of_code weight: 0.1 target: lower context: # 包含哪些文件作为上下文 included_files: - *.py - requirements.txt # 排除哪些文件 excluded_files: - */__pycache__/* - *.lognum_candidates这个参数非常有用。设为大于1时每轮LLM会生成多个不同的修改方案。系统会并行运行所有方案的测试然后从中选出最好的一个。这增加了找到更优解的概率但代价是API调用成本和测试时间成倍增加。selection_strategybest策略简单直接。elite策略则可能保留前2-3个优秀变体在下一轮让它们分别作为“父代”继续进化这有点类似于遗传算法能更好地维持种群多样性避免陷入局部最优。metrics这是将进化从“通过测试”提升到“代码质量全方位优化”的关键。你可以集成像radon计算圈复杂度或black检查格式这样的工具让系统在追求功能正确的同时也关注代码的内部质量。4. 实战进阶复杂场景下的进化策略掌握了基础操作后我们可以挑战更复杂的场景。这些场景更能体现迭代式代码进化的威力。4.1 场景一算法优化与重构假设你参加编程竞赛写了一个解决某问题的暴力搜索算法但效率太低无法通过大数据集的测试。你可以将这个暴力解法作为起点。操作步骤准备起点代码将你的brute_force_solution.py准备好。准备测试包含一组小规模测试验证正确性和一组大规模测试用于评估性能可以设置超时限制。性能测试不一定非要“通过”可以设计成输出运行时间让评估器根据时间长短来评分。定义进化目标在配置中明确写出“在保证正确性的前提下显著降低算法的时间复杂度。目标是让大规模测试用例的运行时间减少90%以上。”提供上下文如果可能在项目目录下放一个problem_description.md文件详细描述问题背景和输入输出格式帮助LLM理解问题本质。启动进化设置较多的迭代次数如20轮和候选数量如3给系统足够的探索空间。系统可能会做什么LLM可能会尝试将O(n^2)的循环改为O(n log n)的排序加双指针或者引入动态规划、哈希表等数据结构。它会在你的代码基础上进行“手术”而不是重写。你需要密切关注进化日志看它是如何一步步将低效代码替换成高效模式的。这个过程本身就是一个绝佳的算法学习案例。4.2 场景二为遗留代码添加测试与类型提示面对一个没有测试、没有类型提示的遗留函数手动补全既枯燥又容易出错。可以让进化系统来辅助完成。操作步骤起点就是那个原始的、没有类型提示的legacy_function。测试初始阶段你可以不提供任何测试。将进化目标定为“为此函数添加完整的Python类型提示Type Hints并基于其功能描述和代码逻辑生成一套覆盖边界条件的单元测试。”巧用上下文确保函数的文档字符串如果有清晰描述了功能。如果项目中有调用此函数的其他代码将其包含在上下文里这能帮助LLM推断参数和返回值的类型。评估器配置这里的评估器需要特殊设置。它不能只运行测试因为一开始没有测试。你需要配置一个多阶段评估器阶段一语法和类型检查。使用mypy或pyright检查生成代码的类型提示是否正确没有语法错误。阶段二测试生成与运行。让LLM生成的测试代码被自动执行看是否能通过。同时可以运行一个简单的覆盖率检查看测试是否触发了函数的主要分支。迭代系统会首先生成一个添加了类型提示的版本然后为这个版本生成测试。如果测试失败它会分析原因是类型提示错了还是生成的测试用例不对然后进行下一轮修正。这个场景展示了系统“无中生有”的能力。你从一个没有测试、没有类型的代码开始最终得到一个类型安全、且有测试保障的代码极大地提升了代码的可维护性和可靠性。4.3 场景三跨文件与架构演进真正的项目往往涉及多个文件、类和模块。进化系统也能处理这种复杂性但需要更精细的配置。挑战与策略上下文范围必须将相关的多个文件如models.py,services.py,utils.py都包含在上下文管理中。LLM需要看到完整的模块依赖关系才能做出合理的修改。进化目标目标需要更宏观。例如“将UserService类中与数据库直接交互的逻辑抽离出来创建一个新的UserRepository类遵循依赖倒置原则。修改后确保所有现有集成测试通过。”测试的层次需要依赖项目级别的集成测试或端到端测试而不仅仅是单元测试。因为修改可能涉及多个模块的接口变化。小步快跑不要指望一次进化就完成大规模重构。应该设定一系列小的、渐进式的目标。例如第一轮先在不改变行为的前提下提取一个方法第二轮将这个方法移到新类中第三轮更新调用方。每一步都运行完整的测试套件以确保系统整体仍然工作。踩坑实录在跨文件进化中最大的风险是LLM可能会“管得太宽”修改了你不希望它碰的、不相关的文件。因此务必精确配置included_files和excluded_files。同时一定要使用版本控制系统如Git。在启动进化前提交代码这样如果进化方向跑偏或引入了无法解决的问题你可以轻松地回退到上一个稳定状态。永远不要在没有备份的情况下让AI大规模修改你的代码库。5. 性能、成本与效果优化指南使用这样一个系统你很快就会关心两个实际问题它要花多少钱API成本以及它到底有没有用进化效果5.1 控制API调用成本LLM API调用是按Token计费的迭代进化意味着多次调用成本可能迅速累积。以下是一些控制成本的策略从廉价模型开始在探索阶段或对简单任务优先使用gpt-3.5-turbo而不是gpt-4。GPT-4的能力更强但价格通常是前者的15-30倍。用GPT-3.5进行初步探索和Bug修复往往已经足够。限制上下文长度LLM的收费也与输入的Token数有关。仔细审查你的上下文配置只包含进化所必需的文件。避免将整个项目目录都塞进去。可以使用.gitignore类似的模式来排除__pycache__,node_modules, 日志文件等无关内容。设置迭代和候选数上限通过max_iterations和num_candidates参数严格控制探索的深度和广度。一个常见的策略是先进行少量如3-5轮、单候选的快速进化如果效果不佳再针对性地增加轮次或候选数。利用缓存如果项目支持可以启用对话或提示缓存。对于相同的输入提示直接返回缓存的结果避免重复调用API。一些高级的LLM应用框架如LangChain支持此功能。监控使用量定期查看你的API提供商控制台设置用量告警。OpenAI等平台允许你设置每月预算硬上限这是一个非常重要的安全阀。5.2 提升进化效果与成功率不是每次进化都能成功。有时系统会在原地打转甚至产生更差的代码。如何提高成功率编写高质量、确定性的测试这是进化成功的基石。测试必须清晰、无歧义、覆盖关键用例和边界条件。模糊或不稳定的测试例如依赖随机数或网络会导致评估结果摇摆不定让进化过程迷失方向。提供清晰、具体的进化目标不要只说“优化代码”。要说“将函数process_data的运行时间降低50%同时保持输出结果与现有测试完全一致”。越具体LLM的行动就越有针对性。善用系统提示词System Prompt和进化历史大多数项目允许你自定义发送给LLM的系统指令。你可以在这里强调代码风格“遵循PEP 8”、安全要求“避免使用eval”或架构原则“保持函数单一职责”。同时确保进化历史过去几轮的成功与失败记录被包含在上下文中这能帮助LLM避免重复犯错并基于之前的成功经验进行建设。分阶段进化对于复杂任务采用“分而治之”的策略。例如第一阶段的目标是“让所有单元测试通过”第二阶段的目标是“添加完整的错误处理”第三阶段是“用异步IO重构网络请求部分”。每个阶段目标明确更容易成功。人工审核与干预不要完全放任自流。定期检查进化日志看看系统在尝试什么方向。如果发现它连续几轮都在一个错误思路上打转可以手动停止调整目标或提供一些中间代码作为“提示”然后重新开始。将AI进化视为一个强大的辅助工具而不是全自动的黑盒。5.3 评估进化成果不仅仅是测试通过当进化完成后如何评判结果的好坏除了最基础的“测试通过”你应该从多个维度评估功能正确性这是底线。所有现有测试必须通过并且你应该手动验证一些关键用例。代码质量可读性新代码是否比旧代码更清晰、更易于理解变量名、函数名是否更贴切可维护性圈复杂度是否降低函数长度是否缩短模块间的耦合度是否减少健壮性是否增加了必要的输入验证、错误处理和边界条件检查性能如果这是优化目标使用性能分析工具如Python的cProfile或timeit量化比较进化前后的差异。创新性AI是否提出了一些你未曾想到的、更优雅的解决方案这是此类工具最大的价值之一——提供人类思维之外的解题思路。你可以将上述指标量化并记录每次实验的结果逐步积累经验了解在何种任务、何种配置下迭代式代码进化能带来最大的收益。6. 常见陷阱、问题排查与安全考量在实际使用中你肯定会遇到各种问题。下面我整理了一些常见陷阱和排查思路。6.1 进化过程陷入循环或退化现象系统连续多轮生成的代码变体几乎相同或者代码质量在好与坏之间来回摇摆无法稳定提升。可能原因与对策温度Temperature设置过低如果温度设为0或接近0LLM的输出会非常确定缺乏创造性容易导致思路僵化。尝试将温度提高到0.3-0.7增加探索性。评估标准过于单一或模糊如果只依赖“测试通过”系统可能找到一种取巧的方式通过测试但破坏了代码结构。增加代码质量评估指标如圈复杂度、重复代码检测。上下文窗口不足LLM可能“忘记”了早期的进化目标或约束。确保关键的指令和目标描述被包含在每一轮请求的上下文中。尝试重启或重置有时系统会进入一个“死胡同”。可以保存当前最佳代码然后以它为起点开启一个全新的进化任务并微调目标或参数。6.2 生成的代码无法通过基础语法检查现象LLM生成的代码存在语法错误连Python解释器都无法运行更别说通过测试了。可能原因与对策模型能力不足或上下文混乱对于复杂的代码生成GPT-3.5有时会“胡言乱语”。切换到GPT-4或Claude 3等更强大的模型。同时检查上下文是否包含了不相关或格式错误的内容干扰了模型。输出格式问题LLM可能在回复中包含了非代码的思考过程或解释。确保你的提示词明确要求模型“只输出修改后的完整代码文件内容”并配置后处理逻辑来提取代码块。在评估阶段前置语法检查在运行昂贵的测试之前先添加一个快速的语法检查步骤例如python -m py_compile。如果语法检查失败直接判定该候选无效节省时间和资源。6.3 API错误与网络问题现象进化过程中频繁出现APIError,TimeoutError,RateLimitError。对策实现重试机制在模型客户端层对可重试的错误如速率限制、临时网络故障实现指数退避重试逻辑。降低请求频率如果使用num_candidates 1考虑在并行请求之间增加短暂延迟避免触发API的速率限制。监控Token用量预估每次请求的上下文Token数量如果接近模型上限如GPT-4的128K考虑精简上下文或分割任务。6.4 安全与可靠性考量让AI自动修改代码必须慎之又慎。代码注入风险绝对不要让进化系统处理来自不可信来源的代码或者在有高权限的环境中运行它生成的、未经审查的代码。LLM可能会在代码中插入恶意或危险的指令尽管概率低但存在。版本控制是生命线再次强调必须在Git等版本控制系统下进行操作。每次启动进化前确保工作区是干净的并做好提交。这样任何不受欢迎的更改都可以一键还原。代码审查不可省略对于进化后的代码尤其是用于生产环境的代码必须经过严格的人工代码审查。重点关注AI引入的更改逻辑是否正确是否有隐藏的安全漏洞如SQL注入、命令注入性能是否真的提升了测试套件的完备性你的测试是唯一的守护者。如果测试覆盖不全AI可能会“修复”一个Bug的同时引入十个更隐蔽的Bug。进化过程高度依赖测试的质量务必投资于编写全面、可靠的测试。迭代式代码进化是一个极其强大的概念和工具它代表了AI辅助编程从“一次性代码生成”向“持续性代码优化”的范式转变。它要求我们以新的方式与机器协作我们不再是给出精确指令的指挥官而是设定目标和规则的引导者。通过这个项目我深刻体会到未来的编程可能更像是在培育和驯化一段有生命的代码而我们需要学会的是如何为它设定正确的进化方向和环境。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2608406.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…