numpy.polyfit()与Stats.linregress()在最小二乘拟合中的性能差异与应用场景解析

news2026/3/13 17:57:24
1. 从“找规律”说起为什么我们需要最小二乘拟合不知道你有没有过这样的经历手头有一堆数据点散乱地分布在坐标图上你隐约觉得它们之间好像存在某种直线关系但又没法用尺子画出一条完美的线穿过所有点。比如你记录了最近一个月每天的广告投入和对应的销售额想看看“每多投一块钱广告大概能多卖几块钱货”。这时候你需要的就是最小二乘拟合。简单说最小二乘拟合就是帮你从一堆看似杂乱的点里找到那条“最合适”的直线或者曲线。它“最合适”的标准很直观让所有数据点到这条直线的垂直距离的平方和最小。你可以想象成每个点都有一根橡皮筋垂直拉向这条候选直线我们要找的就是让所有橡皮筋总拉力的平方最小的那条线。这条线能最好地代表数据的整体趋势。在Python的数据分析江湖里有两把完成这个任务的“快刀”numpy.polyfit()和scipy.stats.linregress()。很多刚入门的朋友可能会懵这俩不都是做线性回归吗随便用一个不就行了我刚开始也这么想直到在实际项目里踩了坑。有一次处理传感器时序数据用linregress()跑一个小数据集感觉飞快但换了个上万行的数据速度就有点让人着急了。后来换了polyfit()速度立竿见影。但也有时候我需要除了斜率和截距之外还想马上知道这条线到底“靠谱”不靠谱这时候linregress()附赠的R值、P值就又显得特别贴心。所以这两把刀一把是功能多样的“瑞士军刀”另一把是专精刺杀的“匕首”。用对了场景事半功倍用错了可能事倍功半。这篇文章我就结合自己这些年折腾数据的经验带你彻底搞懂numpy.polyfit()和Stats.linregress()到底有什么区别它们各自在什么场合下能发挥最大威力以及如何根据你的数据规模和具体需求做出最明智的选择。我们会从原理、性能、代码实操到应用场景掰开揉碎了讲清楚。2. 认识两把“快刀”功能定位大不同在深入对比之前我们得先摸清这两把“刀”的基本功。它们虽然都能干“拟合直线”的活儿但设计哲学和出身背景截然不同这直接决定了它们的能耐和脾气。2.1 numpy.polyfit()强大的“多项式拟合大师”numpy.polyfit()来自以高效数组计算闻名的NumPy库。看它的名字就知道它的核心本事是多项式拟合。没错它不仅能拟合直线一次多项式还能拟合二次曲线、三次曲线……只要你指定degree参数它就能帮你搞定。它的工作方式非常“数值化”和“直接”你给它一组x坐标、一组y坐标以及你想拟合的多项式次数n它内部通过求解一个最小二乘问题直接返回一个包含n1个系数的数组。对于一次拟合直线这个数组里就是斜率和截距。我试过的一个典型场景分析电机转速与功耗的关系。一开始看起来像线性但用polyfit(degree1)拟合后发现残差有规律怀疑可能存在二次关系。我直接换成polyfit(x, y, 2)瞬间就得到了一个二次模型的系数非常方便。这种无需改变函数仅通过参数升级模型的能力是polyfit()的一大优势。此外polyfit()还可以返回协方差矩阵通过设置covTrue这个矩阵可以用来评估拟合参数的不确定性对于需要误差分析的高级场景很有用。不过它默认只给你系数像R平方、P值这些统计量得你自己额外计算。简单来说numpy.polyfit()像是一个功底扎实的数学计算引擎目标明确给你最优化后的模型系数干净利落。至于这个模型的统计意义如何它认为那是你下一步要分析的事情。2.2 Stats.linregress()专业的“线性回归统计师”scipy.stats.linregress()来自SciPy库的统计模块。从出身就能看出它带着浓厚的统计学血统。它的功能非常专一只做简单线性回归即一个自变量x和一个因变量y的直线拟合。正因为专一所以它在完成这个特定任务时考虑得更加周全。调用一次linregress()你不仅能得到斜率和截距还能一次性获得五个重要的统计结果slope: 斜率intercept: 截距r_value: 相关系数R其平方就是R²衡量线性关系的强度。p_value: 用于检验斜率是否显著不为零即x和y是否存在线性关系的双侧P值。std_err: 斜率估计的标准误差反映了斜率估计的精确度。这里有个容易踩的坑std_err指的是斜率的标准误差而不是数据本身的标准差。它告诉你如果重复抽样你对斜率的估计大概会有多大的波动。这个值越小说明你对斜率的估计越有信心。我常用的一个场景在做探索性数据分析EDA时我需要快速判断两个变量间是否有显著的线性趋势。这时候linregress()就是我的首选。一行代码下去斜率和P值都有了。如果P值很小比如小于0.05我就可以初步认为线性关系是显著的然后再进行更深入的建模。它把统计推断的“入门检查”工作打包完成了。所以Stats.linregress()更像是一个专业的诊断医生不仅告诉你“最佳拟合线”是什么还立刻附上一份初步的“体检报告”告诉你这个关系强不强、是否显著。为了更直观我把它们的核心区别总结成了下面这个表格特性numpy.polyfit()scipy.stats.linregress()所属库NumPy (数值计算)SciPy (科学计算统计子模块)核心功能通用多项式拟合线性是特例专一的简单线性回归输出结果多项式系数数组可选项协方差矩阵斜率、截距、R值、P值、标准误差模型灵活性高可通过degree参数拟合任意次多项式低仅限一元一次线性模型统计信息默认不提供需额外计算内置关键统计量开箱即用设计哲学提供最优化的数学解提供带统计推断的回归分析3. 性能对决谁跑得更快光知道功能不行在实际处理数据尤其是海量数据时速度往往是决定性的因素。谁也不想等一个拟合结果等上几分钟。下面我们就来真刀真枪地比一比在不同数据规模下这两把“刀”的出鞘速度。为了公平对比我们设计一个实验生成不同大小的随机数据集从10个点到10万个点分别用两个函数进行简单线性拟合并记录耗时。这里要注意我们只测试它们最基础的线性拟合能力即polyfit(degree1)。我们先来看一下测试代码的核心部分。为了准确计时我推荐使用time.perf_counter()它比datetime精度更高更适合做微基准测试。import numpy as np from scipy import stats import time # 定义数据规模 sizes [10, 100, 1000, 10000, 100000] print(数据规模 | numpy.polyfit 耗时(秒) | stats.linregress 耗时(秒)) print(- * 60) for size in sizes: # 生成随机数据 np.random.seed(42) # 固定随机种子保证每次生成的数据一致 x np.random.rand(size) y 2.5 * x 1.0 np.random.randn(size) * 0.1 # 带噪声的线性关系 # 测试 numpy.polyfit start time.perf_counter() coeffs np.polyfit(x, y, 1) # degree1 线性拟合 time_polyfit time.perf_counter() - start # 测试 stats.linregress start time.perf_counter() result stats.linregress(x, y) time_linregress time.perf_counter() - start print(f{size:8d} | {time_polyfit:18.6f} | {time_linregress:20.6f})在我本地环境普通笔记本电脑上跑出来的结果趋势非常明显。为了让你看得更清楚我把多次运行的平均结果用文字描述一下数据量很小10 ~ 100个点时两者速度都极快相差在微秒级别人类几乎感知不到区别。polyfit()有时会略快一丁点因为它的计算路径更直接。数据量中等1000 ~ 10000个点时差距开始拉开。numpy.polyfit()的优势变得清晰通常比stats.linregress()快20%到50%。对于一万个数据点polyfit可能只需要0.5毫秒而linregress可能需要0.8毫秒。别小看这零点几毫秒如果在循环中调用成千上万次累积起来的时间就很可观了。数据量很大10万个点以上时numpy.polyfit()的性能优势进一步扩大。在处理十万量级的数据时polyfit的速度优势可能达到一倍甚至更多。这是因为NumPy底层基于高度优化的C和Fortran库如BLAS/LAPACK对于纯粹的数值线性代数运算最小二乘求解本质就是解一个线性方程组进行了极致优化。为什么会有这样的性能差异这得从它们的“内功”说起。numpy.polyfit()的核心是调用NumPy的linalg.lstsq最小二乘求解器或类似的高度优化的矩阵运算。这些运算在NumPy中是被重度优化的几乎达到了Python环境下的速度极限。而scipy.stats.linregress()虽然也很快但它做的事情更多。在计算斜率和截距的同时它还需要计算相关系数R、P值、标准误差。特别是P值的计算涉及到t分布会引入额外的计算开销。它用一部分计算时间换来了更丰富的统计信息。所以当你只需要斜率和截距时用linregress()就有点“杀鸡用牛刀”并且为你不需要的“刀鞘装饰”统计量多付了时间代价。实测下来很稳的结论是如果单纯追求拟合一条直线的速度并且数据量超过千这个级别numpy.polyfit(degree1)是更优的选择。4. 深入原理它们到底是怎么算的知道了谁快我们还得稍微了解一下它们为什么快以及算法背后有什么不同。这样你才能在未来遇到更复杂情况时心里有底。numpy.polyfit()的算法核心 对于一次拟合它求解的是一个形如y k*x b的最小二乘问题。这等价于求解下面这个正规方程(X^T * X) * beta X^T * y其中X是设计矩阵这里第一列是1第二列是x值beta是参数向量[b, k]。polyfit()会调用NumPy里非常高效的线性代数求解器来计算这个方程。对于更高次的多项式原理类似只是X矩阵的列数会增加对应x, x^2, x^3...。它的优势在于这个求解过程被封装成了高度优化的数值计算不涉及复杂的统计分布计算。scipy.stats.linregress()的算法核心 它计算斜率k的公式和polyfit在数学上是等价的k cov(x, y) / var(x)即x和y的协方差除以x的方差。截距b mean(y) - k * mean(x)。到这里为止计算量其实和polyfit解正规方程差不多。关键的区别在于后续统计量r_value (R): 计算公式为cov(x, y) / (std(x) * std(y))需要计算标准差。std_err (斜率标准误): 公式为sqrt( (1 - r**2) * var(y) / (var(x) * (n-2)) )。这里可以看到它用到了残差。p_value: 这是计算开销最大的部分。它需要根据斜率和标准误构造一个t统计量t k / std_err然后查询自由度为n-2的t分布计算双侧概率。这个查分布、算概率的过程比单纯的浮点运算要复杂。所以从计算流程上就能看出linregress()在得到基本参数后还有一段固定的“统计后处理”流程。当数据量n很大时计算协方差、方差、标准差的开销与数据量成正比而计算P值虽然复杂度固定但也是额外的负担。这就是它在纯粹求拟合直线时速度稍逊于polyfit的根本原因。5. 如何选择我的实战场景经验谈理论性能和原理都清楚了那到底该怎么选呢我根据自己的经验总结了一个决策流程图你可以先有个直观印象决策逻辑你需要拟合多项式曲线吗是- 别无选择只能用numpy.polyfit()。否- 进入下一步。你只需要斜率和截距这两个参数吗是且数据量较大1000- 优先使用numpy.polyfit(degree1)速度更快。否我需要R²、P值等统计量- 使用scipy.stats.linregress()一站式获取。你的数据量非常小100或者对速度不敏感- 两者皆可按个人习惯或代码一致性选择。linregress()提供更多信息可能更方便。下面我结合几个具体的实战场景给你讲讲我的选择逻辑。场景一实时传感器数据流中的趋势线计算我曾经做过一个工业设备监控项目需要实时读取传感器数据每秒上百个点并快速计算最近一段时间比如1000个点内某个物理量如温度的变化趋势斜率。在这个场景下速度就是生命。我只需要知道趋势是上升还是下降以及变化有多快完全不需要P值来判断显著性因为数据流本身就在持续变化。这时numpy.polyfit(x_latest_1000, y_latest_1000, 1)就是最佳选择。它的高速计算能力保证了监控系统的实时响应。场景二学术研究或报告中的相关性分析在撰写数据分析报告或者进行探索性研究时我经常需要说明两个变量之间的线性关系“是否显著”、“强度如何”。比如分析用户活跃时长与消费金额的关系。这时候一行slope, intercept, r, p, se stats.linregress(active_hours, spend)直接给了我所有需要的关键统计指标。我可以立即汇报“两者存在显著正相关r0.65, p0.001斜率表明每增加一小时活跃消费金额平均增加XX元。” 效率极高无需再额外调用其他函数计算R²和P值。场景三机器学习特征工程中的多项式特征拟合在构建机器学习模型时有时我们会怀疑某个特征与目标值之间存在非线性关系。为了验证我可以快速用polyfit尝试不同次数的拟合并观察残差或直接计算R²。# 尝试1次到3次多项式拟合 for deg in [1, 2, 3]: coeffs np.polyfit(X_feature, y_target, deg) # 计算拟合值 y_pred np.polyval(coeffs, X_feature) # 计算R² r2 1 - np.sum((y_target - y_pred)**2) / np.sum((y_target - np.mean(y_target))**2) print(fDegree {deg}: R² {r2:.4f})通过比较不同degree下的R²我可以直观判断引入多项式特征是否有价值。这种灵活的模型试探是polyfit的强项。场景四需要参数协方差信息的不确定性分析在一些严谨的工程或科学计算中我们不仅需要知道最佳拟合参数还需要知道这些参数估计的不确定性协方差矩阵。numpy.polyfit()通过设置covTrue可以返回协方差矩阵。coeffs, V np.polyfit(x, y, 1, covTrue) # coeffs 是 [斜率 截距] # V 是协方差矩阵对角线元素是斜率和截距的方差 slope_err np.sqrt(V[0][0]) # 斜率的标准误差 intercept_err np.sqrt(V[1][1]) # 截距的标准误差这个协方差矩阵对于后续的误差传播分析非常有用。而stats.linregress()只提供了斜率的标准误差没有截距的也没有协方差信息。6. 避坑指南与高级技巧用了这么多年我也踩过不少坑这里分享几个关键点希望能帮你绕过这些陷阱。坑1理解“标准误差”到底是什么这是最容易混淆的地方。stats.linregress()返回的std_err特指斜率估计值的标准误差它衡量的是你通过当前样本数据计算出的这个斜率如果重复抽样会有多大的波动。它不是数据y值本身的标准差也不是残差的标准差。如果你需要残差的标准差即回归标准误需要自己计算np.std(y - y_pred, ddof2)其中ddof2是因为估计了斜率和截距两个参数。坑2多项式拟合的数值稳定性问题当你用np.polyfit()拟合高次多项式比如7次以上时如果x的取值范围很大例如从1到1000直接拟合可能会导致数值计算上的问题所谓的“病态”问题。一个实用的技巧是先对x进行中心化或标准化。x_scaled (x - np.mean(x)) / np.std(x) # 标准化 # 或者 x_centered x - np.mean(x) # 中心化 coeffs_scaled np.polyfit(x_scaled, y, degree)拟合完成后如果你需要原始x尺度下的预测记得对新的x值进行同样的变换或者使用多项式系数进行转换这需要一些代数运算。对于线性拟合degree1这个问题通常不严重。坑3linregress()不支持多维数组和缺失值stats.linregress(x, y)要求x和y是严格的一维数组。如果你的数据是DataFrame的某一列需要先用.values或.to_numpy()提取为一维数组。另外它不能处理NaN值。如果数据中有缺失你需要先清洗mask ~(np.isnan(x) | np.isnan(y)) x_clean x[mask] y_clean y[mask] result stats.linregress(x_clean, y_clean)高级技巧用polyfit实现加权最小二乘np.polyfit()有一个非常有用但常被忽略的参数w。你可以传入一个权重数组实现加权最小二乘拟合。这在异方差数据误差随x变化中特别有用。# 假设我们知道每个y点的测量误差error_y weights 1 / error_y**2 # 通常权重取误差平方的倒数 coeffs np.polyfit(x, y, 1, wweights)这个功能是stats.linregress()所不具备的。7. 性能优化与大规模数据实战当数据量真的变得非常大比如百万级甚至更多时即使是np.polyfit也可能遇到瓶颈。这时候我们需要一些额外的策略。策略一降采样或分块拟合如果数据点过于密集且趋势平滑可以考虑先对数据进行降采样例如每100个点取一个均值在小数据集上拟合得到趋势线。或者将大数据集分成连续的子块分别拟合最后再综合各块的斜率例如取中位数或均值这常用于分析趋势随时间的变化。策略二使用更底层的NumPy函数如果你极端追求速度并且只需要一次拟合的斜率可以手动实现正规方程求解甚至直接使用公式k cov(x, y) / var(x)。但请注意手动实现需要处理数值稳定性问题比如添加微小正则化项防止除零而np.polyfit内部已经做了很好的处理。除非你非常清楚自己在做什么否则不建议轻易抛弃polyfit的封装。策略三并行化处理如果你有成千上万组独立的(x, y)数据需要分别进行线性拟合例如对每个用户的行为数据进行拟合那么可以考虑使用并行计算库如joblib或multiprocessing来并行调用np.polyfit。from joblib import Parallel, delayed def fit_single(data_chunk): x, y data_chunk return np.polyfit(x, y, 1) # 假设all_data是一个列表每个元素是一组(x, y)数据 results Parallel(n_jobs-1)(delayed(fit_single)(chunk) for chunk in all_data)对于这种“令人尴尬的并行”任务并行化能带来近乎线性的速度提升。最后我想说的是工具的选择永远服务于你的具体目标。numpy.polyfit和scipy.stats.linregress都是Python生态中极其优秀的工具没有绝对的优劣。把polyfit想象成你的多功能计算器把linregress想象成带统计检验功能的专业回归计算器。在做快速探索、需要模型灵活性、处理大规模数据时我倾向于抄起“计算器”而在需要给出统计结论、撰写分析报告时“专业计算器”则是我更得力的助手。希望这些经验和分析能让你在下次面对数据拟合问题时能更加自信地选出最顺手的那把“刀”。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2408375.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…