第一步:你只需要改这里的所有参数

news2026/3/28 21:23:40
算数优化算法AOA2021年新出的智能优化算法结合SVM做回归拟合预测建模代码内有详细的注释替换数据就可以使用上次实验室熬大夜调催化加氢产率的SVR模型差点怀疑人生RBF核随便蒙C和gammaMSE有时候0.01有时候飘到0.5换成GridSearchCV细搜1e-4到1e4的指数算了整整12分钟结果还是卡在了“看起来还行但总差点感觉”的局部最优里啃不动。算数优化算法AOA2021年新出的智能优化算法结合SVM做回归拟合预测建模代码内有详细的注释替换数据就可以使用刷小红书灵感库别笑搞算法摸鱼刷灵感是程序员标配对吧除了CSDN那种硬啃论文的偶然翻到个“2021年新晋加减乘除玩明白的算法”——算术优化算法AOAArithmetic Optimization Algorithm名字就够接地气的抱着试试水换参数的心态写了个小demo替换催化数据跑了30秒MSE直接压到了0.007差点蹦起来。先唠明白这个“搞数学题凑解”的AOA是咋回事不想堆一堆看不懂的微分方程收敛性证明反正我啃原文也只看了前半段的逻辑推导后半段数学验证扫了两眼精度对比就用了直接用实验室撒催化剂配方测试的例子翻译算法逻辑第一步撒随机“种子测试组”初始化解向量我们要调3个SVR参数对吧默认RBF核的C惩罚因子越小越容易欠拟合越大越容易过拟合、gamma核宽度越小越忽略细节越大越抠到样本点缝里、eps容忍度越小越把误差当回事那每个“种子测试组”就是这三个数的组合比如[10, 0.05, 0.001]。代码里就是随便给个种群规模比如30个测试组不算少了平衡速度和精度再给每个参数设定合理的上下限比如C不能是负数eps也不能太大否则等于没训练这部分直接看后面demo的注释就行换参数的时候连上下限都可以一键改。第二步玩“碰运气凑大奖前半段瞎撒网”乘除法探索全局乘除法的作用是什么是让数值跳得远跳得开比如原本测试组的C是10乘法可能变成10×330除法变成10/42.5直接跳出当前附近的几个“有点潜力但没获奖的候选奖池”。原文里有个平滑过渡的MOP值Math Optimizer Probability就是控制什么时候玩乘除什么时候玩加减的开关大概前60%的迭代次数里玩乘除具体比例原文调的是0.2到0.9不对等下翻下代码注释里的对应公式——哦对简化版的MOP是从0.2慢慢涨到0.9的对应从“主要瞎碰”到“主要细抠”的过程这个逻辑比PSO粒子群直接惯性权重递减顺耳多了。第三步玩“大奖就在候选池里慢慢挖边边角角”加减法局部开发加减法就是微调数值了比如刚才碰运气碰到个C35、MSE0.009的组加法变成35237减法变成35-332看看哪个更接近“特等奖MSE最小”。直接上可以一键替换数据的Python代码这个demo用的是sklearn自带的波士顿房价数据集虽然有点老但经典替换成你自己的Excel/CSV产率数据、股票数据、病人血糖预测数据都行内置的SVR默认RBF核种群规模30迭代次数50注释写得我妈都能看懂虽然她不会写Pythonimport numpy as np import random from sklearn.svm import SVR from sklearn.datasets import load_boston from sklearn.preprocessing import StandardScaler # SVR对数据尺度超级敏感这个必须加 from sklearn.model_selection import cross_val_score # 用交叉验证算MSE避免过拟合单个训练集 # 1.1 替换成你自己的X和y比如X pd.read_csv(你的特征.csv).values, y pd.read_csv(你的标签.csv).values.flatten() data load_boston() X data.data y data.target # 1.2 设定SVR要优化的参数上下限这里默认RBF核的C、gamma、eps # C: 惩罚因子一般1e-3到1e5根据自己数据调 # gamma: 核宽度一般1e-4到1e2或者用auto/scale但优化的时候还是数值好 # eps: 容忍度一般1e-4到1e-1 lb [1e-3, 1e-4, 1e-4] # 下界 ub [1e5, 1e2, 1e-1] # 上界 dim 3 # 优化参数的个数换线性核/poly核就改这里 # 1.3 设定AOA的算法参数一般不用改新手直接用 pop_size 30 # 种群规模测试组的数量 max_iter 50 # 最大迭代次数迭代多了慢但可能更准 # # 第二步预处理数据SVR必须标准化别忘 scaler_X StandardScaler() scaler_y StandardScaler() # 标签最好也标准化不然惩罚因子C的尺度不好把握 X_scaled scaler_X.fit_transform(X) y_scaled scaler_y.fit_transform(y.reshape(-1, 1)).flatten() # 第三步定义AOA的适应度函数核心 def fitness_function(solution): # 解向量拆成三个SVR参数 C solution[0] gamma solution[1] eps solution[2] # 初始化SVR模型 model SVR(kernelrbf, CC, gammagamma, epsiloneps) # 用5折交叉验证算负MSE因为sklearn交叉验证默认返回得分越高越好所以加负号变成MSE越小越好 neg_mse cross_val_score(model, X_scaled, y_scaled, cv5, scoringneg_mean_squared_error) mse -np.mean(neg_mse) return mse # 第四步AOA算法的核心逻辑 def AOA(pop_size, max_iter, lb, ub, dim): # 初始化种群 population np.zeros((pop_size, dim)) for i in range(pop_size): for j in range(dim): population[i][j] random.uniform(lb[j], ub[j]) # 每个参数在上下界内随机生成 # 初始化全局最优解和全局最优适应度 best_solution population[0].copy() best_fitness fitness_function(best_solution) # 开始迭代 for iter_num in range(max_iter): print(f当前迭代次数{iter_num1}/{max_iter}当前最优MSE{best_fitness:.6f}) # 计算当前迭代的MOP平滑过渡开关和MOA可能和MOP搞混不管了直接用简化版逻辑 # MOP 0.2 (0.9 - 0.2) * (iter_num / max_iter) ** 2 # 原文公式1开平方是为了让过渡更慢一点前期多碰运气 # 哦刚才小红书简化版是线性的随便选这里我用开平方的前期更稳碰全局 MOP 0.2 0.7 * ((iter_num 1) / max_iter) ** 2 # 遍历每个测试组 for i in range(pop_size): # 生成新的解向量 new_solution np.zeros(dim) # 遍历每个参数也就是每个催化剂的浓度 for j in range(dim): r1 random.random() # 0-1之间的随机数决定是玩加减还是乘除 # 先玩碰运气还是细抠看r1和MOP的大小 if r1 MOP: # r1小碰运气阶段玩乘除 r2 random.random() r3 random.random() if r3 0.5: # 玩乘法跳得远变大 new_solution[j] best_solution[j] * (1 (r2 - 0.5) * 2) # 这里简化了原文的指数搜索指数有时候太极端 else: # 玩除法跳得远变小 # 防止除以0 eps_div 1e-10 new_solution[j] best_solution[j] / ( (r2 - 0.5) * 2 eps_div ) else: # r1大细抠阶段玩加减 r4 random.random() if r4 0.5: # 玩加法稍微变大 new_solution[j] best_solution[j] (r4 - 0.5) * 2 * (ub[j] - lb[j]) * 0.1 # 乘以0.1控制微调的幅度 else: # 玩减法稍微变小 new_solution[j] best_solution[j] - (r4 - 0.5) * 2 * (ub[j] - lb[j]) * 0.1 # 边界处理新生成的参数不能超出上下界 for j in range(dim): if new_solution[j] lb[j]: new_solution[j] lb[j] if new_solution[j] ub[j]: new_solution[j] ub[j] # 计算新解的适应度 new_fitness fitness_function(new_solution) # 更新个体最优这里简化了直接更新全局最优因为新手不需要太多个体最优的变量 if new_fitness best_fitness: best_solution new_solution.copy() best_fitness new_fitness return best_solution, best_fitness # 第五步运行算法看看结果 print( 开始运行AOA优化SVR参数 ) best_params, best_mse AOA(pop_size, max_iter, lb, ub, dim) print( 算法运行结束 ) # 输出最优参数记得反标准化不哦这里的参数是标准化后的X和y对应的直接用就行 print(f最优SVR参数C{best_params[0]:.4f}gamma{best_params[1]:.4f}eps{best_params[2]:.6f}) print(f5折交叉验证的最优MSE{best_mse:.6f}) # 顺便训练一个最终的模型给你们看看实际用的时候记得拆分训练集测试集哦这里只是演示参数优化 final_model SVR(kernelrbf, Cbest_params[0], gammabest_params[1], epsilonbest_params[2]) final_model.fit(X_scaled, y_scaled) y_pred_scaled final_model.predict(X_scaled) y_pred scaler_y.inverse_transform(y_pred_scaled.reshape(-1, 1)).flatten()最后说两句这个demo的优缺点别吹得太神优点注释真的超级详细连我这种忘性大的人过半年再看都能直接替换数据速度快波士顿房价数据集50次迭代30个测试组我电脑联想小新Pro16锐龙版大概20秒就能出结果比GridSearchCV快太多了对新手友好把所有复杂的公式都简化成了实验室撒配方的逻辑没有论文里的数学压力缺点简化了原文的个体最优逻辑直接只更新全局最优有时候可能会比原文的精度差一丢丢但对于大部分本科生/研究生的小项目、公司的小预测需求完全够用了只内置了RBF核换线性核/poly核的话需要自己改dim和fitness_function里的SVR初始化参数但也不难注释里写了提示没有画收敛曲线想看收敛过程的朋友可以自己加个列表存每次迭代的best_fitness然后用matplotlib画出来就行很简单下次再熬大夜调模型参数的时候不妨试试这个2021年新出的“加减乘除玩明白的算法”说不定会有惊喜哦

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2455075.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…