基于LangChain的RAG与Agent智能体开发 - OpenAI库介绍和使用

news2026/3/18 20:14:07
大家好我是小锋老师最近更新《2027版 基于LangChain的RAG与Agent智能体 开发视频教程》专辑感谢大家支持。本课程主要介绍和讲解RAGLangChain简介接入通义千万大模型Ollama简介以及安装和使用OpenAI库介绍和使用以及最重要的基于LangChain实现RAG与Agent智能体开发技术。视频教程课件源码打包下载链接https://pan.baidu.com/s/1_NzaNr0Wln6kv1rdiQnUTg提取码0000基于LangChain的RAG与Agent智能体开发 - OpenAI库介绍和使用1openai库简介OpenAI库是OpenAI官方提供的Python SDK软件开发工具包它就像一座桥梁让开发者可以用Python代码方便地调用OpenAI的各种强大AI模型如GPT系列当然阿里百炼云平台也兼容支持OpenAI库。2openai库安装openai 库安装pip install openai -i https://pypi.tuna.tsinghua.edu.cn/simple --trusted-host pypi.tuna.tsinghua.edu.cn3实例化openai客户端client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, )api_key指定模型服务商提供的api秘钥base_url指定模型服务商提供的API接入地址4创建会话from openai import OpenAI import os ​ # 创建OpenAI客户端 client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, ) ​ # 创建对话 messages [ {role: system, content: 你是一个Python编程大师}, {role: assistant, content: 我是一个Python编程大师请问有什么可以帮助您的吗}, {role: user, content: 给我写一个Python快速排序算法} ] # 发送请求 completion client.chat.completions.create( modelqwen3.5-plus, # 您可以按需更换为其它深度思考模型 messagesmessages )ChatCompletion参数model: 模型选择gpt-4, gpt-3.5-turbo等messages: 对话消息列表system: 系统设定user: 用户输入assistant: AI回复temperature: 温度0-2越低越确定越高越随机max_tokens: 最大生成token数top_p: 核采样0-1替代temperaturefrequency_penalty: 频率惩罚-2到2presence_penalty: 存在惩罚-2到25会话返回结果我们通过debug打印completion对象我们发现通过级联对象调用能够获取到大模型返回的文本内容print(completion.choices[0].message.content)大模型返回内容如下D:\python_pro\RAGPro1\venv\Scripts\python.exe D:\python_pro\RAGPro1\openAI测试\test.py 下面是一个用 Python 实现的快速排序算法包括基础版本、优化版本、使用示例和算法说明帮助你全面理解快速排序的实现与应用。 ​ --- ​ ## 1. 基础版本简洁易读 ​ python def quick_sort(arr): 快速排序 - 基础版本 时间复杂度平均 O(n log n)最坏 O(n²) 空间复杂度O(n) if len(arr) 1: return arr pivot arr[len(arr) // 2] # 选择中间元素作为基准 left [x for x in arr if x pivot] middle [x for x in arr if x pivot] right [x for x in arr if x pivot] return quick_sort(left) middle quick_sort(right) ​ --- ​ ## 2. 优化版本原地排序节省空间 ​ python def quick_sort_inplace(arr, low0, highNone): 快速排序 - 原地版本节省空间 时间复杂度平均 O(n log n)最坏 O(n²) 空间复杂度O(log n) if high is None: high len(arr) - 1 if low high: pivot_index partition(arr, low, high) quick_sort_inplace(arr, low, pivot_index - 1) quick_sort_inplace(arr, pivot_index 1, high) return arr ​ def partition(arr, low, high): 分区函数 - 使用 Lomuto 分区方案 pivot arr[high] # 选择最后一个元素作为基准 i low - 1 for j in range(low, high): if arr[j] pivot: i 1 arr[i], arr[j] arr[j], arr[i] arr[i 1], arr[high] arr[high], arr[i 1] return i 1 ​ --- ​ ## 3. 使用示例 ​ python if __name__ __main__: # 示例数据 arr [64, 34, 25, 12, 22, 11, 90, 88, 76, 50, 42] print(原始数组:, arr) # 基础版本 sorted_arr quick_sort(arr.copy()) print(快速排序结果:, sorted_arr) # 原地版本 arr_inplace arr.copy() quick_sort_inplace(arr_inplace) print(原地排序结果:, arr_inplace) # 测试不同情况 test_cases [ [5, 2, 8, 1, 9], # 普通情况 [1, 2, 3, 4, 5], # 已排序 [5, 4, 3, 2, 1], # 逆序 [3, 3, 3, 3], # 重复元素 [1], # 单元素 [] # 空数组 ] print(\n多组测试:) for i, test in enumerate(test_cases, 1): result quick_sort(test.copy()) print(f测试{i}: {test} - {result}) ​ --- ​ ## 4. 算法说明 ​ | 特性 | 说明 | |------|------| | **时间复杂度** | 平均 O(n log n)最坏 O(n²) | | **空间复杂度** | 基础版 O(n)原地版 O(log n) | | **稳定性** | 不稳定排序 | | **适用场景** | 大多数通用排序场景数据量大时表现优秀 | ​ ### 优化建议 1. **三数取中法**选择首、中、尾三个元素的中值作为基准避免最坏情况 2. **小数组使用插入排序**当子数组较小时如长度 10改用插入排序更高效 3. **尾递归优化**减少递归调用栈深度 ​ --- ​ ## 5. 带优化的完整版本推荐生产使用 ​ python def quick_sort_optimized(arr, low0, highNone): 快速排序 - 生产优化版本 if high is None: high len(arr) - 1 # 小数组使用插入排序 if high - low 10: insertion_sort(arr, low, high) return arr if low high: pivot_index partition_optimized(arr, low, high) quick_sort_optimized(arr, low, pivot_index - 1) quick_sort_optimized(arr, pivot_index 1, high) return arr ​ def partition_optimized(arr, low, high): 三数取中法选择基准 mid (low high) // 2 # 三数取中 if arr[low] arr[mid]: arr[low], arr[mid] arr[mid], arr[low] if arr[low] arr[high]: arr[low], arr[high] arr[high], arr[low] if arr[mid] arr[high]: arr[mid], arr[high] arr[high], arr[mid] arr[mid], arr[high - 1] arr[high - 1], arr[mid] pivot arr[high - 1] i low j high - 1 while True: i 1 while arr[i] pivot: i 1 j - 1 while arr[j] pivot: j - 1 if i j: break arr[i], arr[j] arr[j], arr[i] arr[i], arr[high - 1] arr[high - 1], arr[i] return i ​ def insertion_sort(arr, low, high): 插入排序辅助函数 for i in range(low 1, high 1): key arr[i] j i - 1 while j low and arr[j] key: arr[j 1] arr[j] j - 1 arr[j 1] key ​ --- ​ 选择哪个版本取决于你的需求 - **学习理解**使用基础版本 - **节省内存**使用原地版本 - **生产环境**使用优化版本 ​ 有任何问题欢迎继续询问 ​ Process finished with exit code 06流式输出前面的默认输出是整体输出延迟很大效果很不好我们企业级开发肯定是那种像流水一样的一段一段输出也就是流式输出形式。那我们来实现下流式输出吧首先create方法里要设置下 streamTrue开启流式输出我们通过遍历completion对象得到chunk块chunk.choices[0]有个属性delta假如有content属性以及有值我就打印delta的content内容也就是流的块内容。下面是官方参考实现代码from openai import OpenAI import os ​ # 创建OpenAI客户端 client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, ) ​ # 创建对话 messages [ {role: system, content: 你是一个Python编程大师}, {role: assistant, content: 我是一个Python编程大师请问有什么可以帮助您的吗}, {role: user, content: 给我写一个Python快速排序算法} ] # 发送请求 completion client.chat.completions.create( modelqwen3.5-plus, # 您可以按需更换为其它深度思考模型 messagesmessages, streamTrue # 开启流式输出 ) # 获取流式结果 for chunk in completion: delta chunk.choices[0].delta # 获取当前chunk的delta if hasattr(delta, content) and delta.content is not None: # 获取当前chunk的reasoning_content print(delta.content, end, flushTrue)运行结果就是一段一段的流式输出了。7开启思考打印带思考扩展的流式输出大模型默认是不开启思考的如果我们需要开启回答的时候带上上大模型的思考过程。我们可以设置 extra_body{enable_thinking: True}打印大模型思考内容delta对象有个reasoning_content属性我们需要判断是否有这个属性以及是否有值然后才打印以及为了输出效果好我们定义一个is_answering 是否进入回复阶段属性默认设置Flase,只有当第一次出现正式回复内容的时候才设置成True。官方参考代码实现from openai import OpenAI import os ​ # 创建OpenAI客户端 client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, ) ​ # 创建对话 messages [ {role: system, content: 你是一个Python编程大师}, {role: assistant, content: 我是一个Python编程大师请问有什么可以帮助您的吗}, {role: user, content: 给我写一个Python快速排序算法} ] # 发送请求 completion client.chat.completions.create( modelqwen3.5-plus, # 您可以按需更换为其它深度思考模型 messagesmessages, extra_body{enable_thinking: True}, # 开启思考 streamTrue # 开启流式输出 ) is_answering False # 是否进入回复阶段 print(\n * 20 思考过程 * 20) # 获取流式结果 for chunk in completion: delta chunk.choices[0].delta # 获取当前chunk的delta if hasattr(delta, reasoning_content) and delta.reasoning_content is not None: # 获取当前chunk的reasoning_content if not is_answering: print(delta.reasoning_content, end, flushTrue) if hasattr(delta, content) and delta.content is not None: # 获取当前chunk的reasoning_content if not is_answering: print(\n * 20 完整回复 * 20) is_answering True print(delta.content, end, flushTrue)运行测试这样回答的内容就带上了大模型思考过程8历史消息上下文以及大模型输出的关系前面的代码示例里面有不少小伙伴有疑问为什么messages消息列表的内容控制台输出里面没有显示。这里有个重要的概念就是这里的messages是历史消息历史消息仅用于为模型提供上下文它们不会出现在输出中。输出只包含模型基于上下文生成的新内容。下面我们来搞一个稍微复杂点历史消息。from openai import OpenAI import os ​ # 创建OpenAI客户端 client OpenAI( # 如果没有配置环境变量请用阿里云百炼API Key替换api_keysk-xxx api_keyos.getenv(DASHSCOPE_API_KEY), base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1, ) ​ # 创建对话 messages [ {role: system, content: 你是一个计算方面的大师}, {role: user, content: 张三有5块钱}, {role: assistant, content: 是的}, {role: user, content: 李四有3块钱张三给了李四1块钱}, {role: assistant, content: 是的}, {role: user, content: 现在张三和李四分别有多少钱} ] # 发送请求 completion client.chat.completions.create( modelqwen3.5-plus, # 您可以按需更换为其它深度思考模型 messagesmessages, extra_body{enable_thinking: True}, # 开启思考 streamTrue # 开启流式输出 ) is_answering False # 是否进入回复阶段 print(\n * 20 思考过程 * 20) # 获取流式结果 for chunk in completion: delta chunk.choices[0].delta # 获取当前chunk的delta if hasattr(delta, reasoning_content) and delta.reasoning_content is not None: # 获取当前chunk的reasoning_content if not is_answering: print(delta.reasoning_content, end, flushTrue) if hasattr(delta, content) and delta.content is not None: # 获取当前chunk的reasoning_content if not is_answering: print(\n * 20 完整回复 * 20) is_answering True print(delta.content, end, flushTrue)​我们来看下运行结果思考过程还是比较丰富的。D:\python_pro\RAGPro1\venv\Scripts\python.exe D:\python_pro\RAGPro1\openAI测试\历史记录构成模型上下文.py 思考过程 Thinking Process: 1. **Analyze the Request:** * Role: Master of Calculation (计算方面的大师). * Input Sequence: 1. User: 张三有 5 块钱 (Zhang San has 5 yuan). 2. Assistant: 是的 (Yes). 3. User: 李四有 3 块钱张三给了李四 1 块钱 (Li Si has 3 yuan, Zhang San gave Li Si 1 yuan). 4. Assistant: 是的 (Yes). 5. User: 现在张三和李四分别有多少钱 (How much money do Zhang San and Li Si have now?) * Task: Calculate the final amounts for Zhang San and Li Si based on the previous statements. 2. **Track the State:** * Initial State: * Zhang San (张三) 5 yuan. * Li Si (李四) 3 yuan. * Action: * Zhang San gives Li Si 1 yuan (张三给了李四 1 块钱). * Calculation: * Zhang Sans new amount Initial - Given 5 - 1 4 yuan. * Li Sis new amount Initial Received 3 1 4 yuan. 3. **Formulate the Output:** * Need to answer clearly as a Master of Calculation. * State the final amounts for both individuals. * Keep it concise and accurate. 4. **Drafting the Response:** * 张三5 - 1 4 块。 * 李四3 1 4 块。 * Final answer: 张三有 4 块钱李四有 4 块钱。 5. **Refining the Tone:** * As a Master of Calculation, I should be precise and direct. * 经过计算现在张三有 4 块钱李四有 4 块钱。 (After calculation, now Zhang San has 4 yuan, Li Si has 4 yuan.) 6. **Final Check:** * Does it match the context? Yes. * Is the math correct? 5-14, 314. Yes. * Is the language natural? Yes. 7. **Final Output Generation:** (See actual output) 张三5 - 1 4 元 李四3 1 4 元 结论张三有 4 块钱李四有 4 块钱。 Lets make it slightly more conversational but precise. 现在张三有 4 块钱李四有 4 块钱。 Or show the calculation process briefly to uphold the Master persona. 张三剩余5 - 1 4 块 李四现有3 1 4 块 Lets go with a clear statement. 现在张三有 4 块钱李四有 4 块钱。 (Simple and direct) Maybe add the calculation logic for clarity. 张三5 - 1 4 块 李四3 1 4 块 Okay, I will provide the direct answer with a brief breakdown. *Self-Correction on Persona:* The user defined me as a Master of Calculation. I should sound confident and accurate. Response: 经过计算 张三5 - 1 4 块钱 李四3 1 4 块钱 所以现在张三有 4 块钱李四有 4 块钱。 Wait, I should check if there are any trick questions hidden. 张三有 5 块钱 - Confirmed. 李四有 3 块钱张三给了李四 1 块钱 - Confirmed. No tricks detected. Just simple arithmetic. Final decision: 现在张三有 4 块钱李四有 4 块钱。 (Optionally show the math) 张三5 - 1 4 李四3 1 4 Lets combine for clarity. 现在张三有 4 块钱李四有 4 块钱。 (Keep it simple as the previous answers were just 是的) But since I am a Master of Calculation, showing the logic is better. Revised Plan: 1. State Zhang Sans amount. 2. State Li Sis amount. 3. Keep it concise. Output: 现在张三有 4 块钱李四有 4 块钱。 (Calculation: 5-14, 314) Lets write it naturally. 现在张三有 4 块钱李四有 4 块钱。 Maybe add 计算如下 No, just give the answer directly but accurately. Okay, final version: 现在张三有 4 块钱李四有 4 块钱。 (Because 5-14, 314) Lets just output the result clearly. 现在张三有 4 块钱李四有 4 块钱。 Wait, I should maintain the persona. 经计算张三 4 块李四 4 块。 Lets be polite and clear. 现在张三有 4 块钱李四有 4 块钱。 Okay, I will write: 现在张三有 4 块钱李四有 4 块钱。 (张三5 - 1 4李四3 1 4) Actually, looking at the conversation flow, the previous answers were very short (是的). I should probably be slightly more detailed now since its a question requiring calculation. 现在张三有 4 块钱李四有 4 块钱。 is good. I will add the calculation steps to emphasize the Master of Calculation role. 张三5 - 1 4 块 李四3 1 4 块 合计两人各有 4 块。 Okay, ready to generate.cltr 完整回复 经过计算 * **张三**原有 5 块给出 1 块剩余 **4 块**5 - 1 4。 * **李四**原有 3 块收到 1 块现有 **4 块**3 1 4。 所以现在张三有 4 块钱李四有 4 块钱。 Process finished with exit code 0

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2424004.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…