FireRed-OCR Studio实战教程:OCR结果与数据库自动同步脚本

news2026/4/10 5:39:42
FireRed-OCR Studio实战教程OCR结果与数据库自动同步脚本1. 学习目标与场景引入想象一下这个场景你是一家公司的行政人员每天需要处理几十份报销单、合同和发票。你用FireRed-OCR Studio把这些纸质文件扫描成清晰的Markdown文档效率确实提升了不少。但接下来呢你需要手动把这些识别出来的信息一条条复制粘贴到公司的财务系统、合同管理系统里这个过程依然繁琐且容易出错。或者你是一个研究人员从大量的学术论文PDF中提取了表格数据生成了结构化的Markdown但如何把这些数据批量导入到Excel或数据库里进行下一步分析又成了新的难题。这就是我们今天要解决的问题。FireRed-OCR Studio已经完成了“从图片到结构化文本”的艰巨任务但“从文本到业务系统”这最后一公里往往还是手工活。本教程的目标就是帮你彻底打通这个流程。通过这篇教程你将学会编写一个Python脚本自动读取FireRed-OCR Studio生成的Markdown文件。解析Markdown中的关键信息如表格、标题、列表。将这些结构化数据自动、准确地同步到你指定的数据库如MySQL、SQLite或文件中。实现一个“上传即入库”的自动化工作流真正解放双手。无论你是零编程基础的办公人员还是希望优化流程的开发者这篇教程都将用最直白的方式带你一步步实现这个实用的自动化脚本。2. 环境准备与脚本框架搭建在开始写代码之前我们需要准备好“工具箱”。别担心你需要安装的东西很少步骤也很简单。2.1 安装必要的Python库打开你的命令行终端Windows上是CMD或PowerShellMac/Linux上是Terminal输入以下命令来安装我们需要的几个Python库pip install pandas sqlalchemy pymysql简单解释一下这几个库是干什么的pandas 数据处理的神器特别擅长处理表格数据我们用它来读取和整理OCR识别出的表格。sqlalchemy 一个数据库工具包可以用统一的Python代码来操作多种数据库MySQL、SQLite、PostgreSQL等不用学各种数据库的专用命令。pymysql 这是连接MySQL数据库需要的驱动。如果你的FireRed-OCR Studio是部署在CSDN星图镜像环境里的这些库很可能已经预装好了。你可以通过运行pip list | grep -E “pandas|sqlalchemy|pymysql”来检查。2.2 创建我们的脚本文件在你的电脑上找一个合适的位置新建一个Python文件。你可以用任何文本编辑器比如VS Code、PyCharm甚至记事本。我们给这个文件起个直观的名字比如ocr_to_db_sync.py。首先我们来搭建脚本的基本骨架把需要用到的工具库都引进来# ocr_to_db_sync.py import os import re import pandas as pd from sqlalchemy import create_engine, text from sqlalchemy.exc import SQLAlchemyError import logging # 设置日志方便我们查看脚本运行情况 logging.basicConfig(levellogging.INFO, format%(asctime)s - %(levelname)s - %(message)s) logger logging.getLogger(__name__) def main(): 主函数 logger.info(开始FireRed-OCR结果同步流程...) # 我们后续的步骤都会在这里添加 pass if __name__ __main__: main()这个框架现在什么具体的事都没做但它已经准备好了日志功能能让我们在运行脚本时看到清晰的提示信息。接下来我们就要像搭积木一样把各个功能块填进去。3. 核心功能一解析Markdown结果文件FireRed-OCR Studio输出的Markdown文件是我们所有数据的源头。我们需要编写一个“翻译官”让Python能理解Markdown里的表格、标题和列表。3.1 读取与分割Markdown内容首先写一个函数来读取文件并根据Markdown的语法规则比如##表示二级标题|开头的行可能是表格把内容分成不同的部分。def parse_markdown_file(file_path): 解析FireRed-OCR生成的Markdown文件提取结构化信息。 参数: file_path (str): Markdown文件的路径 返回: dict: 包含解析出的标题、段落、表格等信息的字典 if not os.path.exists(file_path): logger.error(f文件不存在: {file_path}) return None try: with open(file_path, r, encodingutf-8) as f: content f.read() except Exception as e: logger.error(f读取文件失败 {file_path}: {e}) return None # 初始化一个字典来存放解析结果 parsed_data { title: , headings: [], # 所有标题 paragraphs: [], # 纯文本段落 tables: [], # 提取的表格DataFrame列表 lists: [] # 列表项 } # 提取主标题通常是文件的第一行以#开头 lines content.split(\n) for line in lines: line_stripped line.strip() if line_stripped.startswith(# ): parsed_data[title] line_stripped.lstrip(# ).strip() break # 分割内容这里用一个简单的方法按两个换行符分割成块 blocks [b.strip() for b in content.split(\n\n) if b.strip()] for block in blocks: # 判断块的类型 if re.match(r^\|.*\|.*\|$, block.split(\n)[0]) and re.match(r^\|[-:|], block.split(\n)[1]): # 这是一个Markdown表格 table_df parse_markdown_table(block) if table_df is not None: parsed_data[tables].append(table_df) logger.info(f发现表格形状: {table_df.shape}) elif block.startswith((#, ##, ###, ####)): # 这是一个标题块 level len(re.match(r^#, block).group()) text block.lstrip(#).strip() parsed_data[headings].append({level: level, text: text}) elif block.startswith((- , * , )) or re.match(r^\d\., block): # 这是一个列表块 parsed_data[lists].append(block) elif len(block) 30: # 简单判断为段落 parsed_data[paragraphs].append(block) logger.info(f解析完成。发现 {len(parsed_data[tables])} 个表格, {len(parsed_data[headings])} 个标题。) return parsed_data3.2 专门处理表格的函数上面用到了一个parse_markdown_table函数它是解析表格的核心。Markdown表格有固定的格式第一行是表头第二行是分隔符后面是数据行。def parse_markdown_table(table_block): 将Markdown表格字符串解析为pandas DataFrame。 参数: table_block (str): 包含完整Markdown表格的字符串块 返回: pandas.DataFrame: 解析后的表格数据 lines [line.strip() for line in table_block.split(\n) if line.strip()] if len(lines) 2: return None # 移除每行首尾的管道符 |并按管道符分割单元格 rows [] for line in lines: # 跳过分隔行 (例如: |---|---|) if re.match(r^\|[-:| ]\|$, line): continue # 移除首尾的|并分割 cells [cell.strip() for cell in line.strip(|).split(|)] rows.append(cells) if not rows: return None # 第一行作为列名表头 header rows[0] data rows[1:] if len(rows) 1 else [] try: df pd.DataFrame(data, columnsheader) return df except Exception as e: logger.error(f解析表格数据为DataFrame时出错: {e}) return None好了现在我们已经有了一个强大的解析器。你可以写几行简单的代码测试一下# 测试代码片段 (可以放在 if __name__ __main__: 里临时测试) test_file “你的markdown文件路径.md” # 替换成你实际的文件路径 result parse_markdown_file(test_file) if result: print(f文档标题: {result[title]}) if result[tables]: print(第一个表格预览:) print(result[tables][0].head())4. 核心功能二连接与同步到数据库数据解析出来后我们要把它送到目的地——数据库。这里以最常用的MySQL为例其他数据库如SQLite、PostgreSQL的连接方式也非常类似。4.1 配置数据库连接我们需要告诉脚本数据库在哪里、叫什么名字、用什么账号登录。注意为了安全不要把密码直接写在代码里更推荐使用环境变量或配置文件。def get_database_engine(db_typemysql, configNone): 创建并返回数据库连接引擎。 参数: db_type (str): 数据库类型如 mysql, sqlite config (dict): 包含连接参数的字典例如 { host: localhost, port: 3306, user: your_username, password: your_password, # 建议从环境变量读取 database: your_database_name } 返回: sqlalchemy.engine.Engine: 数据库引擎对象 if config is None: config {} if db_type.lower() mysql: # 从环境变量获取密码是更安全的做法 password config.get(password) or os.getenv(DB_PASSWORD) if not password: logger.warning(数据库密码未配置请设置DB_PASSWORD环境变量或在config中提供。) connection_string ( fmysqlpymysql://{config.get(user, root)}:{password} f{config.get(host, localhost)}:{config.get(port, 3306)} f/{config.get(database, ocr_results)} ) elif db_type.lower() sqlite: db_path config.get(db_path, ./ocr_data.db) connection_string fsqlite:///{db_path} else: logger.error(f不支持的数据库类型: {db_type}) return None try: engine create_engine(connection_string) # 测试连接 with engine.connect() as conn: conn.execute(text(SELECT 1)) logger.info(f成功连接到数据库: {db_type}) return engine except SQLAlchemyError as e: logger.error(f数据库连接失败: {e}) return None4.2 将数据写入数据库连接建立好后我们就可以把解析出来的数据尤其是表格数据写入数据库了。这里设计一个函数它会把一个DataFrame表格写入指定的表。def save_table_to_db(engine, dataframe, table_name, if_existsreplace): 将DataFrame保存到数据库的指定表中。 参数: engine: sqlalchemy数据库引擎 dataframe: pandas DataFrame对象 table_name (str): 目标表名 if_exists (str): 如果表已存在如何处理。fail, replace, append if dataframe is None or dataframe.empty: logger.warning(fDataFrame为空跳过保存表 {table_name}) return False try: # 使用pandas的to_sql方法非常简单 dataframe.to_sql(nametable_name, conengine, if_existsif_exists, indexFalse) logger.info(f成功保存表格数据到 {table_name}共 {len(dataframe)} 行。) return True except Exception as e: logger.error(f保存表格到数据库失败 ({table_name}): {e}) return False4.3 设计数据表结构在同步之前最好规划一下数据库里表的结构。一个简单的设计是documents表存放文档的整体信息。id(主键)title(文档标题)file_path(原文件路径)parse_time(解析时间)tables表存放每个提取出来的表格。id(主键)doc_id(关联的文档ID)table_index(在该文档中是第几个表格)table_name(可以自动生成如doc1_table1)raw_data(可以存储表格的JSON格式方便查询)created_at(创建时间)我们可以让脚本在第一次运行时自动创建这些表。def init_database_tables(engine): 初始化数据库表结构 create_docs_table_sql CREATE TABLE IF NOT EXISTS documents ( id INT AUTO_INCREMENT PRIMARY KEY, title VARCHAR(500), file_path VARCHAR(1000), parse_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP ); create_tables_table_sql CREATE TABLE IF NOT EXISTS extracted_tables ( id INT AUTO_INCREMENT PRIMARY KEY, doc_id INT, table_index INT, table_name VARCHAR(255), raw_data JSON, created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP, FOREIGN KEY (doc_id) REFERENCES documents(id) ON DELETE CASCADE ); try: with engine.connect() as conn: conn.execute(text(create_docs_table_sql)) conn.execute(text(create_tables_table_sql)) conn.commit() logger.info(数据库表初始化完成。) except SQLAlchemyError as e: logger.error(f初始化数据库表失败: {e})5. 实战组装完整自动化流程现在我们把前面所有的“积木”组合起来形成一个完整的、可以一键运行的自动化脚本。这个脚本会监控一个指定文件夹。一旦发现有新的Markdown文件来自FireRed-OCR Studio就自动解析。将解析出的数据存入数据库。将处理完的文件移动到“已完成”文件夹避免重复处理。import shutil from datetime import datetime def process_single_file(md_file_path, engine, output_base_dir./processed): 处理单个Markdown文件的完整流程。 # 1. 解析Markdown parsed parse_markdown_file(md_file_path) if not parsed: return False doc_title parsed[title] or os.path.basename(md_file_path) try: with engine.connect() as conn: # 2. 将文档信息存入 documents 表 ins_doc_stmt text( INSERT INTO documents (title, file_path) VALUES (:title, :file_path) ) result conn.execute(ins_doc_stmt, {title: doc_title, file_path: md_file_path}) conn.commit() doc_id result.lastrowid # 获取刚插入的文档ID logger.info(f文档信息已记录ID: {doc_id}) # 3. 将每个表格存入 extracted_tables 表并动态创建业务表 for idx, table_df in enumerate(parsed[tables]): table_name_dynamic fdoc_{doc_id}_table_{idx1} # 3.1 动态创建一个表来存储这个表格的原始数据可选但很实用 save_table_to_db(engine, table_df, table_name_dynamic, if_existsreplace) # 3.2 将表格的元信息存入 extracted_tables 表 ins_table_stmt text( INSERT INTO extracted_tables (doc_id, table_index, table_name, raw_data) VALUES (:doc_id, :table_index, :table_name, :raw_data) ) # 将DataFrame转为JSON字符串存储 raw_data_json table_df.to_json(orientrecords, force_asciiFalse) conn.execute(ins_table_stmt, { doc_id: doc_id, table_index: idx1, table_name: table_name_dynamic, raw_data: raw_data_json }) conn.commit() logger.info(f文档 {doc_title} 的所有表格数据已同步到数据库。) # 4. 移动已处理文件 timestamp datetime.now().strftime(%Y%m%d_%H%M%S) processed_dir os.path.join(output_base_dir, timestamp[:8]) # 按日期分文件夹 os.makedirs(processed_dir, exist_okTrue) new_file_path os.path.join(processed_dir, os.path.basename(md_file_path)) shutil.move(md_file_path, new_file_path) logger.info(f文件已移动到: {new_file_path}) return True except Exception as e: logger.error(f处理文件 {md_file_path} 时发生数据库错误: {e}) return False def main_workflow(watch_folder./ocr_outputs, db_configNone): 主工作流监控文件夹并处理新文件。 # 1. 连接数据库 engine get_database_engine(mysql, db_config) if not engine: return init_database_tables(engine) # 2. 确保监控文件夹存在 os.makedirs(watch_folder, exist_okTrue) processed_base_dir ./processed os.makedirs(processed_base_dir, exist_okTrue) logger.info(f开始监控文件夹: {watch_folder}) # 3. 查找所有.md文件并处理 md_files [f for f in os.listdir(watch_folder) if f.lower().endswith(.md)] if not md_files: logger.info(未发现待处理的Markdown文件。) return for md_file in md_files: file_path os.path.join(watch_folder, md_file) logger.info(f处理文件: {md_file}) success process_single_file(file_path, engine, processed_base_dir) if success: logger.info(f文件 {md_file} 处理成功。) else: logger.error(f文件 {md_file} 处理失败。) logger.info(本轮文件夹监控处理完成。) if __name__ __main__: # 在这里配置你的数据库连接信息生产环境建议用环境变量 my_db_config { host: localhost, port: 3306, user: 你的数据库用户名, password: 你的数据库密码, # 强烈建议从环境变量读取 database: fire_red_ocr_db } # 指定FireRed-OCR Studio输出Markdown的文件夹 output_folder /path/to/your/firered_ocr_outputs # 请修改为实际路径 main_workflow(watch_folderoutput_folder, db_configmy_db_config)6. 总结与进阶建议恭喜你现在你已经拥有了一个能将FireRed-OCR Studio识别结果自动同步到数据库的脚本。让我们回顾一下你构建的这套自动化流程的价值效率飞跃从“手动复制粘贴”到“上传即入库”处理上百份文档可能只需要几分钟的脚本运行时间而不再是几小时的人工劳动。准确无误脚本处理避免了人为操作中可能出现的错行、漏填等错误保证了数据的一致性。数据就绪所有OCR结果都以结构化的形式存储在数据库中你可以立刻使用SQL进行查询、分析或者轻松连接到BI工具如Tableau、Metabase生成报表。6.1 如何运行你的脚本配置修改脚本末尾的my_db_config字典填入你真实的MySQL数据库信息。将output_folder路径改为你FireRed-OCR Studio保存Markdown文件的实际目录。运行在终端中进入脚本所在目录执行命令python ocr_to_db_sync.py自动化你可以使用系统的定时任务如Linux的cronWindows的任务计划程序来定期例如每5分钟运行这个脚本实现真正的全自动同步。6.2 下一步可以做什么你现在搭建的是一个坚实可靠的基础。在此基础上可以尝试以下进阶玩法让这个工具更加强大支持更多文件类型修改脚本让它不仅能处理.md文件还能直接处理FireRed-OCR Studio的JSON输出如果提供信息更丰富。增加Webhook或消息通知在脚本处理完成或失败时自动发送一条消息到你的企业微信、钉钉或Slack让你及时知晓状态。与CSDN星图镜像深度集成如果你将整套系统部署在星图镜像上可以考虑将数据库如MySQL也部署在同一个环境内形成闭环。甚至可以将这个同步脚本封装成另一个轻量级的“数据同步”镜像与FireRed-OCR Studio镜像组合使用通过环境变量传递配置实现开箱即用的自动化流水线。扩展数据目的地除了数据库你还可以轻松修改脚本将数据同步到Google Sheets、Airtable或者直接生成Excel报告。通过FireRed-OCR Studio你获得了精准的文档识别能力而通过今天编写的这个自动化脚本你赋予了这些数据流动的生命力。从识别到洞察路径从未如此清晰和顺畅。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2501863.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…