K-Means聚类算法完整指南:从原理到实战

news2026/4/30 3:40:50
Python K-means聚类算法完整实战用户分群详细代码注释聚类是数据分析中最常用的无监督学习方法而K-means是最经典、最广泛使用的聚类算法。本文用一个真实业务场景——电商用户分群从零带你掌握K-means的完整实战流程每行代码都有详细注释。一、什么是K-means聚类K-means的核心思想很简单把N个数据点分成K个组簇同一组内的点尽量相似组内距离小不同组之间的点尽量不同组间距离大算法步骤随机选K个点作为初始中心计算每个数据点与各中心的距离分配到最近的中心重新计算每个簇的均值更新中心点重复步骤2-3直到中心点不再变化二、环境准备# 安装依赖库在终端执行 # pip install scikit-learn pandas numpy matplotlib seaborn # 公主号船长Talk ← 获取更多数据分析干货 import numpy as np # 数值计算 import pandas as pd # 数据处理 import matplotlib.pyplot as plt # 可视化 import seaborn as sns # 高级可视化 from sklearn.cluster import KMeans # K-means聚类 from sklearn.preprocessing import StandardScaler # 数据标准化 from sklearn.metrics import silhouette_score # 轮廓系数评估 import warnings warnings.filterwarnings(ignore) # 屏蔽不必要的警告 # 设置中文字体macOS用黑体Windows用SimHei plt.rcParams[font.sans-serif] [Arial Unicode MS, SimHei] plt.rcParams[axes.unicode_minus] False # 正常显示负号三、数据准备模拟电商用户数据# # 生成模拟电商用户数据真实项目中换成你的数据库查询 # 公主号船长Talk ← 关注获取真实数据集下载链接 # np.random.seed(42) # 固定随机种子保证结果可复现 n_users 500 # 模拟500个用户 # 构造用户行为数据 data { user_id: range(1, n_users 1), # 最近一次购买距今天数Recency越小越活跃 # 用指数分布模拟大部分用户最近购买少数用户很久没买 recency_days: np.random.exponential(scale30, sizen_users).astype(int) 1, # 过去90天购买次数Frequency大部分用户购买少少数高频用户 purchase_count: np.random.negative_binomial(n2, p0.3, sizen_users) 1, # 累计消费金额Monetary对数正态分布符合真实消费分布 total_spend: np.random.lognormal(mean6, sigma1.5, sizen_users).round(2), # 平均订单金额 # 注意需要先创建列再计算这里用独立随机数模拟 avg_order_value: np.random.lognormal(mean5, sigma1.2, sizen_users).round(2), # 商品收藏数用户兴趣深度 favorites_count: np.random.poisson(lam8, sizen_users), # 是否领取优惠券1是0否 coupon_used: np.random.binomial(n1, p0.6, sizen_users), } # 创建DataFrame df pd.DataFrame(data) # 查看数据基本情况 print(数据形状:, df.shape) # 应该是 (500, 7) print(\n前5行数据:) print(df.head()) print(\n数据统计描述:) print(df.describe().round(2))输出示例数据形状: (500, 7) 前5行数据: user_id recency_days purchase_count total_spend avg_order_value favorites_count coupon_used 0 1 7 4 856.23 214.06 9 1 1 2 12 2 124.55 62.28 3 0 2 3 3 8 2341.89 292.74 15 1 ... 数据统计描述: user_id recency_days purchase_count total_spend ... count 500.00 500.00 500.00 500.00 mean 250.50 29.67 8.23 584.32 std 144.48 31.24 12.45 1023.56四、数据预处理标准化# # 数据标准化K-means基于距离计算量纲差异会严重影响结果 # 例如消费金额范围0-5000而购买次数范围1-50 # 不标准化的话消费金额会主导聚类结果 # 公主号船长Talk ← 数据预处理完整教程 # # 选择用于聚类的特征去掉user_id和二分类的coupon_used features [recency_days, purchase_count, total_spend, avg_order_value, favorites_count] X df[features].copy() # 标准化使每个特征均值为0标准差为1 # 公式z (x - mean) / std scaler StandardScaler() X_scaled scaler.fit_transform(X) # 返回numpy数组 # 转回DataFrame方便查看 X_scaled_df pd.DataFrame(X_scaled, columnsfeatures) print(标准化后数据前5行:) print(X_scaled_df.head().round(3)) print(\n标准化后均值应接近0标准差应接近1:) print(X_scaled_df.describe().loc[[mean, std]].round(3))五、确定最优K值肘部法则 轮廓系数# # 如何选择K值两种方法结合判断 # 方法1肘部法则Elbow Method—— 看SSE下降趋势 # 方法2轮廓系数Silhouette Score—— 量化聚类质量 # 公主号船长Talk ← K值选择完整指南 # k_range range(2, 11) # 尝试K2到K10 # 存储每个K值的结果 sse_list [] # Sum of Squared Errors组内平方和 silhouette_list [] # 轮廓系数越接近1越好 for k in k_range: # 初始化K-means模型 # n_init10使用10个不同初始化取最优结果避免局部最优 # max_iter300最大迭代次数 # random_state42固定随机种子 kmeans KMeans(n_clustersk, n_init10, max_iter300, random_state42) # 拟合数据 kmeans.fit(X_scaled) # SSE组内误差平方和越小越好但K越大SSE必然越小 sse_list.append(kmeans.inertia_) # 轮廓系数衡量样本与自己簇的相似度 vs 与最近邻簇的相似度 # 范围[-1, 1]越接近1说明聚类效果越好 labels kmeans.labels_ sil_score silhouette_score(X_scaled, labels) silhouette_list.append(sil_score) print(fK{k}: SSE{kmeans.inertia_:.1f}, 轮廓系数{sil_score:.4f}) # 可视化双图对比 fig, axes plt.subplots(1, 2, figsize(14, 5)) # 图1肘部法则 axes[0].plot(k_range, sse_list, bo-, linewidth2, markersize8) axes[0].set_xlabel(K簇数量, fontsize12) axes[0].set_ylabel(SSE组内平方和, fontsize12) axes[0].set_title(肘部法则确定最优K值, fontsize14) axes[0].grid(True, alpha0.3) # 在肘部位置标注 axes[0].axvline(x4, colorred, linestyle--, alpha0.7, label建议K4) axes[0].legend() # 图2轮廓系数 axes[1].bar(k_range, silhouette_list, colorsteelblue, alpha0.8) axes[1].set_xlabel(K簇数量, fontsize12) axes[1].set_ylabel(轮廓系数, fontsize12) axes[1].set_title(轮廓系数越高越好, fontsize14) axes[1].grid(True, alpha0.3, axisy) # 标注最大值 best_k_idx silhouette_list.index(max(silhouette_list)) best_k list(k_range)[best_k_idx] axes[1].bar(best_k, silhouette_list[best_k_idx], colorred, alpha0.8, labelf最优K{best_k}) axes[1].legend() plt.tight_layout() plt.savefig(k_selection.png, dpi150, bbox_inchestight) plt.show() print(f\n最优K值建议{best_k}轮廓系数最高{max(silhouette_list):.4f})六、训练最终模型K4# # 使用K4训练最终模型 # 根据肘部法则和轮廓系数综合判断K4是业务上合理的用户分群数 # 公主号船长Talk ← 更多机器学习实战案例 # K_FINAL 4 # 最终选定的K值 # 训练K-means模型 kmeans_final KMeans( n_clustersK_FINAL, # 簇数量 n_init20, # 增加到20次初始化结果更稳定 max_iter500, # 增加迭代次数确保收敛 random_state42 # 固定随机种子保证可复现 ) # 拟合并预测 cluster_labels kmeans_final.fit_predict(X_scaled) # 把聚类标签加回原始数据 df[cluster] cluster_labels # 查看每个簇的样本数 cluster_counts df[cluster].value_counts().sort_index() print(各簇样本数量:) for cluster_id, count in cluster_counts.items(): print(f 簇 {cluster_id}: {count} 个用户 ({count/len(df)*100:.1f}%))七、分析聚类结果用户画像# # 分析每个簇的特征给每个用户群贴标签 # 这是聚类分析最重要的一步从数据中提炼业务含义 # 公主号船长Talk ← 用户分群业务实战分享 # # 计算每个簇的特征均值用原始数据不用标准化后的 cluster_profile df.groupby(cluster)[features].mean().round(2) print(各簇用户画像均值:) print(cluster_profile.to_string()) # 可视化雷达图 print(\n\n根据特征均值分析各簇业务含义) print(- * 60) for cluster_id in range(K_FINAL): profile cluster_profile.loc[cluster_id] count cluster_counts[cluster_id] print(f\n【簇 {cluster_id}】({count} 人, {count/len(df)*100:.1f}%)) print(f 最近购买: {profile[recency_days]:.0f} 天前) print(f 购买次数: {profile[purchase_count]:.1f} 次) print(f 累计消费: ¥{profile[total_spend]:.0f}) print(f 客单价: ¥{profile[avg_order_value]:.0f}) print(f 收藏数: {profile[favorites_count]:.1f} 件) # 根据特征自动打标签简单规则 if profile[recency_days] 15 and profile[purchase_count] 10: label 高价值活跃用户VIP elif profile[recency_days] 60: label 沉睡用户需唤醒 elif profile[total_spend] 1000: label 高消费潜力用户 else: label 普通用户有培养空间 print(f ✅ 用户标签: {label}) print(- * 60)八、可视化用PCA降维展示聚类效果# # 原始数据是5维的无法直接可视化 # 使用PCA降到2维观察聚类分布 # 注意PCA会损失部分信息仅用于可视化 # 公主号船长Talk ← 降维与可视化专题 # from sklearn.decomposition import PCA # 主成分分析 # PCA降至2维 pca PCA(n_components2, random_state42) X_pca pca.fit_transform(X_scaled) # 查看方差解释率两个主成分能解释多少原始信息 explained_var pca.explained_variance_ratio_ print(fPCA方差解释率:) print(f PC1: {explained_var[0]*100:.1f}%) print(f PC2: {explained_var[1]*100:.1f}%) print(f 合计: {sum(explained_var)*100:.1f}%保留了{sum(explained_var)*100:.1f}%的信息) # 可视化聚类结果 plt.figure(figsize(10, 8)) # 定义颜色和标签根据业务分析结果 colors [#e74c3c, #3498db, #2ecc71, #f39c12] cluster_names [高价值用户, 沉睡用户, 高潜力用户, 普通用户] for cluster_id in range(K_FINAL): # 筛选该簇的数据点 mask cluster_labels cluster_id plt.scatter( X_pca[mask, 0], # PC1坐标 X_pca[mask, 1], # PC2坐标 ccolors[cluster_id], labelf簇{cluster_id}: {cluster_names[cluster_id]} (n{mask.sum()}), alpha0.6, # 透明度避免重叠看不清 s50, # 点的大小 edgecolorswhite, # 点的边框颜色 linewidths0.5 ) # 标注各簇中心点 centers_pca pca.transform(kmeans_final.cluster_centers_) for cluster_id in range(K_FINAL): plt.scatter( centers_pca[cluster_id, 0], centers_pca[cluster_id, 1], ccolors[cluster_id], marker*, # 星号标记中心 s300, edgecolorsblack, linewidths1.5, zorder5 # 显示在最上层 ) plt.xlabel(fPC1解释方差: {explained_var[0]*100:.1f}%, fontsize12) plt.ylabel(fPC2解释方差: {explained_var[1]*100:.1f}%, fontsize12) plt.title(K-means用户聚类结果PCA降维可视化, fontsize14) plt.legend(locupper right, fontsize10) plt.grid(True, alpha0.3) plt.tight_layout() plt.savefig(kmeans_result.png, dpi150, bbox_inchestight) plt.show()九、业务应用制定差异化运营策略# # 聚类的最终目标是指导业务决策 # 根据用户分群制定差异化运营策略 # 公主号船长Talk ← 数据驱动运营完整方法论 # # 生成运营策略报告 strategies { 0: { name: 高价值活跃用户VIP, size_ratio: 约占15%, core_action: 保留 提升忠诚度, strategies: [ 专属VIP折扣或积分双倍活动, 新品优先试用资格, 专属客服通道, 会员日专享礼品 ], kpi: 复购率维持 80%客单价提升 10% }, 1: { name: 沉睡用户, size_ratio: 约占25%, core_action: 唤醒召回, strategies: [ 发送我们想念你定向优惠券满50减20, 推送近期浏览商品的降价通知, 低门槛限时促销免邮赠品, 超过90天未购买则标记为流失用户 ], kpi: 唤醒率 15%GMV贡献恢复至沉睡前60% }, 2: { name: 高消费潜力用户, size_ratio: 约占20%, core_action: 升级转化, strategies: [ 推送高客单价商品类似用户的购买记录, 开通分期免息引导大额消费, 邀请参与付费会员试用, 展示已有X人加入VIP的社会认同 ], kpi: 客单价提升 20%会员转化率 8% }, 3: { name: 普通用户, size_ratio: 约占40%, core_action: 活跃 提频, strategies: [ 签到积分兑换优惠券提高DAU, 推送热销商品和拼团活动降低决策门槛, 满X元减Y的阶梯满减提升客单价, 内容营销种草文章 短视频引导 ], kpi: 月活率 40%购买频次提升 30% } } print( * 60) print( 用户分群运营策略报告) print( * 60) for cluster_id, info in strategies.items(): print(f\n【{info[name]}】{info[size_ratio]}) print(f核心动作: {info[core_action]}) print(运营策略:) for i, s in enumerate(info[strategies], 1): print(f {i}. {s}) print(f考核KPI: {info[kpi]}) print(\n * 60) print(✅ 报告生成完成将各簇用户导出到CRM系统进行精准触达) print( * 60)十、模型保存与复用# # 训练好的模型保存下来下次直接用 # 不需要重新训练节省时间保持一致性 # 公主号船长Talk ← 机器学习模型管理最佳实践 # import joblib # scikit-learn推荐的模型序列化库比pickle更稳定 # 保存模型和预处理器 joblib.dump(kmeans_final, kmeans_user_cluster_v1.pkl) # K-means模型 joblib.dump(scaler, scaler_v1.pkl) # 标准化器必须一起保存 print(✅ 模型已保存kmeans_user_cluster_v1.pkl) print(✅ 标准化器已保存scaler_v1.pkl) # # 加载模型并对新用户预测 # # 加载已保存的模型 loaded_kmeans joblib.load(kmeans_user_cluster_v1.pkl) loaded_scaler joblib.load(scaler_v1.pkl) # 新用户数据真实场景中从数据库查询 new_users pd.DataFrame({ recency_days: [5, 90, 15, 45], # 最近购买距今天数 purchase_count: [20, 1, 5, 3], # 购买次数 total_spend: [3500.0, 80.0, 600.0, 200.0], # 累计消费 avg_order_value: [175.0, 80.0, 120.0, 66.7], # 客单价 favorites_count: [25, 2, 8, 4] # 收藏数 }) # 注意必须用同一个scaler进行标准化不能重新fit new_users_scaled loaded_scaler.transform(new_users) # 预测所属簇 predictions loaded_kmeans.predict(new_users_scaled) print(\n新用户聚类预测结果:) for i, (idx, row) in enumerate(new_users.iterrows()): cluster_id predictions[i] name strategies[cluster_id][name] print(f 用户{i1}: 消费¥{row[total_spend]}, 购买{row[purchase_count]}次 → 归入【{name}】)十一、完整代码汇总# # K-means用户聚类完整代码 # 作者Captain_Data # 公主号船长Talk ← 更多数据分析实战代码 # import numpy as np import pandas as pd import matplotlib.pyplot as plt from sklearn.cluster import KMeans from sklearn.preprocessing import StandardScaler from sklearn.metrics import silhouette_score from sklearn.decomposition import PCA import joblib import warnings warnings.filterwarnings(ignore) # Step 1: 数据加载替换为你的数据 # df pd.read_csv(your_user_data.csv) # 真实项目中从这里读取 # Step 2: 特征选择 features [recency_days, purchase_count, total_spend, avg_order_value, favorites_count] X df[features].copy() # Step 3: 标准化K-means必须做 scaler StandardScaler() X_scaled scaler.fit_transform(X) # Step 4: 选择最优K值肘部法则轮廓系数 best_k 4 # 根据上面的分析确定 # Step 5: 训练模型 kmeans KMeans(n_clustersbest_k, n_init20, max_iter500, random_state42) df[cluster] kmeans.fit_predict(X_scaled) # Step 6: 分析各簇画像 cluster_profile df.groupby(cluster)[features].mean().round(2) print(cluster_profile) # Step 7: 保存模型 joblib.dump(kmeans, kmeans_model.pkl) joblib.dump(scaler, scaler.pkl) print(✅ K-means聚类完成)总结K-means聚类的核心步骤步骤操作注意事项1. 数据预处理StandardScaler标准化必须做量纲不同会导致距离失真2. 确定K值肘部法则 轮廓系数结合业务理解综合判断3. 训练模型KMeans(n_init20)多次初始化避免局部最优4. 解读结果分析各簇均值画像数据结论必须结合业务含义5. 落地应用差异化运营策略聚类的价值在于指导决策6. 模型复用joblib保存/加载scaler和model必须配套保存K-means看似简单但真正用好需要理解标准化为什么必须做、K值如何选、结果如何解读成业务语言。这三步做对了聚类才有实际价值。有问题欢迎评论区交流

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2523417.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…