Transkribus与ChatGPT结合:构建高效历史档案智能转录与校正工作流

news2026/5/10 6:29:33
1. 项目概述当古老档案遇见现代AI历史档案研究听起来是个充满灰尘和故纸堆的领域。作为一名长期在数字人文和档案数字化领域摸爬滚打的从业者我深知其中的痛点面对数百年前的手写文献无论是花体英文、潦草的中文行书还是各种褪色的墨水痕迹人工转录不仅耗时耗力而且极易出错一个字母或一个汉字的误读可能就会让整段历史研究走入歧途。传统的解决方案比如雇佣大量专业人员进行人工录入和校对成本高昂且效率低下这成了许多珍贵档案“沉睡”在库房无法被有效利用的主要原因。近年来以深度学习为代表的人工智能技术特别是光学字符识别和自然语言处理为这个古老领域带来了革命性的曙光。这个项目的核心就是探讨如何将两款强大的AI工具——Transkribus和ChatGPT——进行有机结合构建一个高效、准确且成本可控的历史档案文本转录与智能校正工作流。Transkribus在专业手写文字识别领域已是标杆而ChatGPT则在语义理解和文本生成上展现出惊人能力。它们俩的组合远不是简单的“11”而是能解决从图像到可编辑、可分析的结构化文本过程中一系列过去难以逾越的障碍。简单来说这个工作流能做什么它能将一张拍摄或扫描的、可能模糊不清的历史文档图片先通过Transkribus转化为初步的机器可读文本然后利用ChatGPT强大的上下文理解能力对这个初步文本进行智能化的校正、补全、断句和格式规整最终输出一份高度可靠、便于研究者直接引用的电子文本。这个过程不仅大幅提升了效率将过去需要数天甚至数周的工作压缩到几小时内更重要的是它通过AI的“二次校验”显著降低了因字形相似、污损、背景干扰导致的识别错误率为历史学者、档案管理员和家谱研究者提供了前所未有的工具支持。2. 核心工具选型与工作流设计思路为什么是Transkribus ChatGPT这个组合背后有深刻的逻辑考量并非随意抓取两个热门工具。我们需要的是一个覆盖从“图像识别”到“语义理解”完整链条的解决方案。2.1 Transkribus为何是手写OCR的不二之选在档案OCR领域通用OCR引擎如Tesseract、Adobe Acrobat面对历史手写体时往往表现乏力。它们是为印刷体优化的对笔迹的连笔、个人风格、历史拼写变体、纸张背景噪声等几乎无能为力。Transkribus的核心优势在于其基于AI的、可训练的识别引擎。它的工作原理并非简单的模板匹配而是利用循环神经网络和注意力机制能够学习特定笔迹的特征。你可以上传一批同一作者或同一时期的文档图像并为其提供一部分人工转录的文本作为“训练数据”。Transkribus会据此训练一个专属的识别模型。这意味着对于17世纪的公证文书、19世纪的书信甚至是中世纪的手稿你都可以通过训练获得一个针对该特定笔迹和语言的高精度模型。这是通用工具无法比拟的。注意Transkribus并非完全“开箱即用”。对于全新的、未训练过的笔迹其初始识别率可能并不理想。它的价值在于“越用越准”。项目启动时需要规划一个初始的“种子数据”标注阶段即人工转录一部分高质量样本用于模型训练。这笔初始投入是后续效率倍增的基础。在实际选型中Transkribus提供了从免费到企业级的多种套餐。对于学术研究或小型项目其免费额度通常足够进行模型训练和小批量识别。它的输出不仅包括纯文本还能生成包含文字坐标信息的ALTO或PAGE XML格式文件这对于后续的版面分析、关键词定位至关重要。2.2 ChatGPT超越拼写检查的智能校正中枢Transkribus输出的文本我们称之为“原始转录文本”。它可能包含以下几种典型错误形近字错误如“r”被识别为“n”“明”被识别为“朋”。背景噪声导致的字符插入或缺失墨渍、纸张褶皱被误认为笔画。历史拼写或异体字古英文中的“ſ”长s被识别为“f”或忽略。缺乏上下文导致的荒谬断词特别是对于没有明确空格的语言。传统的拼写检查器如Word内置的对此束手无策因为它们依赖现代标准词典。而ChatGPT的核心能力在于基于海量语料训练的深层语言模型。它不仅能判断一个单词的拼写是否正确更能理解一个句子、甚至一段话在特定语境下是否“合理”。例如Transkribus可能将一句古法语“Il eſt venu”识别为“Il eft venu”。基于规则的程序很难纠正“eft”到“est”但ChatGPT在接收到“Il eft venu”这个序列时结合其训练语料中对古法语常见句式的“记忆”能够以极高的概率推断出正确的拼写应为“est”或其古体“eſt”。更重要的是它能进行语义连贯性校验。如果一段关于土地交易的文书中突然出现一个与现代科技相关的词汇ChatGPT能标记出此处可能存在严重识别错误这是单纯字符匹配算法做不到的。2.3 端到端工作流架构设计基于以上分析我们设计的工作流不是简单的串联而是一个带有反馈环的智能管道[历史文档图像] → (输入) [Transkribus 专属识别模型] → (输出) [原始转录文本 置信度标注] → (输入) [ChatGPT 智能校正模块] → (输出) [校正后文本 修改建议报告] → (可选人工复审) [最终清洁文本]这个流程的关键在于数据预处理在进入Transkribus前需要对图像进行适当的预处理如去歪斜、对比度增强、背景噪声去除这能直接提升初始识别率。可以使用ImageMagick或OpenCV脚本批量处理。置信度利用Transkribus会为每个识别出的单词或字符提供一个置信度分数。工作流可以将低置信度例如低于85%的片段特别标注出来在发送给ChatGPT时附加提示如“以下片段识别置信度较低请重点关注并校正”让AI将有限的“注意力”资源优先分配给最可疑的部分。提示工程这是调用ChatGPT API的核心技巧。校正请求不是一个简单的“请改正以下文本”而应是一个结构化的提示。例如“你是一位精通[文档语言如19世纪英语]的档案专家。请校正以下从历史手稿中识别出的文本。注意文本可能包含古老的拼写、缩写或印刷错误。请保持原文的时代语言风格仅修正明显的OCR识别错误。对于不确定处请给出你的最佳猜测并用[?]标出。原文如下[此处粘贴原始转录文本]”这样的提示设定了角色、任务范围和输出格式能极大提升校正的准确性和实用性。3. 实操步骤详解从零搭建智能转录流水线理论说再多不如动手做一遍。下面我将以一个具体的例子——批量处理一批19世纪英文商业信件——来拆解每一步的操作细节、参数选择和避坑指南。3.1 阶段一Transkribus模型训练与批量识别步骤1项目创建与数据上传首先在Transkribus官网注册并登录。创建一个新项目以信件集合的年份和作者命名例如“Business_Letters_1850s_JohnSmith”。将扫描好的信件图像建议300DPI以上格式为TIFF或PNG批量上传。Transkribus支持直接上传PDF但内部会将其转换为图像对于高质量控制建议直接使用图像格式。步骤2初始标注与模型训练这是最耗时但最关键的一步。选择10-15页具有代表性的图像涵盖不同墨水浓度、笔迹轻重、页面布局使用Transkribus的在线编辑器进行人工转录。标注时务必准确包括当时的拼写习惯如“theatre”而非“theater”、缩写如“c.” for etc.都要原样保留。实操心得不要追求标注数量而要追求质量。优先选择字迹清晰、内容完整的页面。标注5页完美样本远胜于20页粗糙样本。可以邀请一位熟悉该时期笔迹的研究生共同进行交叉校验。 标注完成后在工具中选择“训练文本识别模型”。关键参数设置基线识别选择“None”因为我们从头训练。语言模型选择“English (Historical)”。如果处理中文可选择“Chinese”。Transkribus的历史语言模型内置了常见的古体字和变体。训练迭代次数通常50-100次epochs足够。可以观察训练损失曲线当曲线趋于平缓时即可停止避免过拟合。 训练完成后Transkribus会给出模型在验证集上的字符错误率。首次训练CER能降到15%以下就算非常成功经过更多数据迭代后可以做到5%甚至更低。步骤3应用模型与批量识别使用训练好的模型对剩余的所有信件图像进行批量识别。在“识别”作业设置中选择你刚训练的模型并勾选“输出文本”和“输出ALTO XML”。后者包含了每个字的坐标对于后续需要分析文本在页面中位置的研究非常有用。注意事项批量识别是队列任务可能需要等待。对于大型项目可以考虑购买计算包以加速。识别完成后务必下载“文本”和“XML”两种格式的结果文件。文本文件用于后续校正XML文件用于存档和深度分析。3.2 阶段二ChatGPT API集成与智能校正步骤1环境准备与API配置我们通过编程方式调用ChatGPT API以实现自动化流水线。这里以Python为例。pip install openai requests tqdm你需要一个OpenAI的API密钥。在代码中配置import openai openai.api_key 你的API密钥步骤2构建智能校正函数核心是设计一个强大的提示词函数。以下是一个增强版的示例def correct_text_with_chatgpt(raw_text, language19世纪英语, doc_type商业信件, confidence_reportNone): 使用ChatGPT校正OCR文本。 :param raw_text: Transkribus识别出的原始文本 :param language: 文档的语言和时期 :param doc_type: 文档类型信件、账簿、日记等 :param confidence_report: 可选低置信度单词列表 :return: 校正后的文本 prompt f 角色你是一位资深的{language}档案学家和语言学家。 任务请校正以下从一份{doc_type}中通过OCR识别出的文本。原始识别可能包含因笔迹潦草、墨水污渍或纸张破损导致的错误。 要求 1. 保持原文的历史语言风格、拼写习惯和缩写例如 ye 代表 the c. 代表 etc.。 2. 仅修正明显的字符识别错误如形近字错误、多余或缺失的字符。 3. 如果遇到无法确定的单词请保留原样并在其后标注[?]。 4. 请改善断句和段落划分使其符合阅读习惯但不要改变原意。 if confidence_report: prompt f\n特别关注以下单词或短语的识别置信度很低请仔细核查{, .join(confidence_report)}\n prompt f\n待校正文本\n\n{raw_text}\n\n\n请直接输出校正后的完整文本。 response openai.ChatCompletion.create( modelgpt-4, # 对于复杂任务gpt-4比3.5准确度显著更高 messages[{role: system, content: prompt}], temperature0.1, # 温度设低确保输出稳定、确定性高 max_tokenslen(raw_text) 500 # 确保有足够tokens返回 ) return response.choices[0].message.content.strip()参数详解temperature设置为0.1是为了让AI的输出尽可能确定和一致避免创造性“发挥”这对于严肃的文本校正是必须的。使用gpt-4模型是因为它在理解复杂上下文和长文档一致性上优于gpt-3.5-turbo。步骤3批量处理与结果管理编写一个脚本遍历所有从Transkribus导出的文本文件调用上述函数并保存结果。import os import json from tqdm import tqdm input_dir ./transkribus_text_output output_dir ./corrected_text os.makedirs(output_dir, exist_okTrue) for filename in tqdm(os.listdir(input_dir)): if filename.endswith(.txt): with open(os.path.join(input_dir, filename), r, encodingutf-8) as f: raw_text f.read() # 这里可以添加解析Transkribus XML获取低置信度单词的逻辑 # low_confidence_words parse_low_confidence_from_xml(...) corrected_text correct_text_with_chatgpt( raw_text, language19世纪英语, doc_type商业信件, confidence_reportNone # 或传入low_confidence_words ) output_filename fcorrected_{filename} with open(os.path.join(output_dir, output_filename), w, encodingutf-8) as f: f.write(corrected_text) # 可选保存每次交互的元数据用于审计 log_entry {file: filename, model: gpt-4, timestamp: ...} # 写入日志...避坑指南OpenAI API有调用频率和token数量限制。对于大量文档需要实现简单的错误重试和速率限制逻辑并在脚本中加入进度条如使用tqdm以便监控。同时注意API调用成本估算项目预算。3.3 阶段三人工复审与最终定稿AI校正不是终点而是将人工从繁重的初筛中解放出来。最终输出必须经过领域专家的人工复审。并排对比工具使用文本比较工具如Beyond Compare, WinMerge或编写一个简单的网页界面将Transkribus原始文本和ChatGPT校正后文本并排显示差异高亮。这能极大提升复审效率。复审重点人工复审应重点关注ChatGPT用[?]标记的不确定处。数字、日期、人名、地名等关键信息。校正后语义发生重大改变的部分。文档中特殊的格式如列表、表格是否被破坏。迭代优化将人工复审中发现的、ChatGPT未能纠正的典型错误案例记录下来。这些案例可以反过来用于优化提示词或者作为新的“训练数据”反馈给Transkribus用于下一轮模型训练形成一个持续改进的闭环。4. 性能评估与成本效益分析投入了时间和资源效果到底如何我们需要一套量化评估方法。4.1 准确性评估指标我们不能只凭感觉说“效果好多了”。对于历史档案由于没有绝对标准的“参考答案”评估可以采取以下方式抽样对比法随机抽取一定比例如10%的文档由两位专家独立进行人工转录将其结果作为“金标准”。然后分别计算Transkribus原始输出的字符错误率。经ChatGPT校正后的字符错误率。 错误率下降的百分比就是AI校正带来的直接增益。在我们的一个试验项目中CER从最初的12%降到了校正后的4%。语义一致性评估邀请不参与转录的研究者阅读原始OCR文本和校正后文本对文本的可读性和逻辑连贯性进行打分1-5分。这能评估AI在理解层面带来的提升。4.2 效率提升测算假设处理1000页手稿纯人工熟练转录员平均每页需15-30分钟视复杂度总计250-500小时。Transkribus人工校对训练模型后批量识别几乎不耗时。但校对原始OCR输出错误率高每页仍需5-10分钟总计83-166小时。TranskribusChatGPT人工复审AI校正将需要人工关注的“硬骨头”减少了70%以上。人工复审每页仅需1-2分钟主要用于核查AI标记的不确定处和关键信息。总计17-33小时。效率提升是数量级的。更重要的是它将专家从机械的字符比对中解放出来投入到更需要人类判断的语义分析、历史背景关联等更高价值的工作中。4.3 成本结构分析成本主要来自三块Transkribus免费套餐有一定额度大规模项目需订阅约每月10-50欧元或按页购买计算点数。ChatGPT API按Token计费。处理历史文本由于需要更长的上下文和更复杂的提示成本可能略高于处理现代文本。平均下来校正一页A4文本约500单词的成本在0.01-0.03美元之间。1000页的成本在10-30美元。人工成本从每页15-30分钟降至1-2分钟人工成本降低80%-90%。对于长期、大型的档案数字化项目前期在Transkribus模型训练和提示词工程上的投入会在后期被巨大的效率红利和准确性提升所抵消。对于小型或一次性项目则需要权衡初始设置成本与收益。5. 进阶技巧与场景化应用掌握了基础流程后我们可以针对更复杂的场景进行优化和扩展。5.1 处理多语言与混合文本档案许多历史档案包含多种语言如拉丁文混合本地语言或同一文档内有印刷体和手写体。Transkribus层面可以训练一个混合语言模型或在识别时指定主要语言。对于版面复杂的文档先使用Transkribus的“布局分析”功能将页面划分为不同的文本区域为不同区域可能是不同语言或字体应用不同的识别模型。ChatGPT提示词层面在提示词中明确说明“本文档包含[语言A]和[语言B]的混合内容。请分别保持各自语言的正确性。” ChatGPT的多语言能力很强通常能很好地处理这种混合情况。5.2 从校正到分析与信息提取获得清洁文本后工作并未结束。我们可以让ChatGPT扮演更积极的角色自动摘要提示“为以下19世纪信件撰写一段不超过100字的摘要概括其核心事件、涉及人物和主要诉求。”实体识别提示“从以下文本中提取所有人名、地名、机构名、日期和货币金额并以JSON格式列出。” 这可以直接为构建知识图谱提供结构化数据。情感与主题分析提示“判断这封信件的主要情感基调是积极的、消极的还是中性的并列出文中讨论的三个主要话题。” 这些分析可以批量进行为研究者提供初步的文献梳理和索引引导他们快速定位到感兴趣的内容。5.3 构建本地化与私有化部署方案出于数据安全珍贵档案不外泄或成本考虑可能需要私有化方案。Transkribus替代可以考虑开源的OCR引擎如Calamari它同样基于深度学习支持自定义模型训练但需要较强的技术能力进行部署和调优。ChatGPT替代使用开源大语言模型进行本地部署如Llama 2、Falcon或ChatGLM。虽然这些模型在通用对话能力上可能略逊于GPT-4但如果在特定历史语料上进行微调完全可以在文本校正和实体识别等特定任务上达到优异效果。这需要准备高质量的微调数据集和相应的GPU计算资源。实操心得对于绝大多数学术机构和小型项目初期直接使用Transkribus和ChatGPT API的云服务是最经济快捷的。私有化部署是当项目规模极大、数据极度敏感或需要定制化功能时才考虑的选项。6. 常见问题与故障排除实录在实际操作中你一定会遇到各种问题。以下是我和团队踩过的一些坑及解决方案。问题现象可能原因排查步骤与解决方案Transkribus训练模型失败或错误率极高1. 训练数据Ground Truth质量差标注错误多。2. 训练图像质量太差分辨率低、倾斜、阴影。3. 训练数据量太少少于5页。4. 选择的基线模型或语言模型不匹配。1.复查标注随机抽查几行标注确保与图像完全一致。2.图像预处理在训练前使用图像处理软件统一调整图像质量。3.增加数据至少准备10-15页高质量标注数据。4.重置模型尝试不使用基线模型或更换更接近的历史语言模型。ChatGPT校正后文本出现“现代化”或改变原意1. 提示词过于笼统未强调“保持历史风格”。2.temperature参数设置过高导致AI“创造性”过强。3. 原始OCR错误太严重导致AI基于错误上下文做出了错误推断。1.强化提示词在提示词中明确加入“严格保持原文的历史拼写、语法和缩写仅修正OCR字符错误”等强约束语句。2.降低随机性将temperature降至0.1或0.2。3.分步校正对于错误率极高的文本先让ChatGPT尝试分段理解或提出疑问而不是直接输出完整校正。API调用频繁超时或返回空值1. 网络连接不稳定。2. 请求的Token数超过模型上限如gpt-3.5-turbo的4096 token。3. API密钥无效或额度用尽。4. 请求频率超过速率限制。1.实现重试机制在代码中添加try-except和指数退避重试逻辑。2.文本分块对于长文档按段落或固定字符数分割后分批发送请求再合并结果。3.检查账户登录OpenAI平台检查密钥状态和余额。4.控制速率在批量处理脚本中加入time.sleep()间隔或使用异步请求池控制并发数。校正结果不一致同一内容多次调用结果不同1.temperature参数大于0导致非确定性输出。2. 提示词表述有歧义。1.固定随机种子虽然OpenAI API不直接提供此参数但将temperature设为0是最佳实践注意GPT-4的temp0仍可能有极小波动。2.优化提示词使指令尽可能明确、无歧义。可以尝试在提示词开头加入“请确保输出稳定一致。”处理特殊格式表格、诗歌、列表时格式混乱1. Transkribus的版面分析未能正确识别这些区域。2. ChatGPT将多行内容合并或打乱。1.预处理在Transkribus中手动调整文本区域Text Region和基线Baseline确保物理结构正确。2.提示词约束在发送给ChatGPT的文本中用特殊标记如[TABLE_START]...[TABLE_END]包裹特殊格式部分并在提示词中要求AI保持该部分原样或按指定格式处理。最后我想分享一点最深的体会这个工作流的成功三分靠工具七分靠流程和人的判断。AI是强大的助手但它不能替代档案学家对历史语境、笔迹学和专业知识的理解。最理想的模式是“AI预处理 - 人机协同校正 - 专家最终裁决”。我们团队曾处理过一批18世纪的船舶日志ChatGPT成功纠正了无数因海水渍染导致的模糊字迹但它无法判断一个缩写“Capt.”究竟指代的是“Captain”还是“Cape”。这时只有熟悉航海术语的研究员才能做出正确判断。拥抱AI但永远保持批判性思维让技术真正赋能研究而不是主导研究。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2599867.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…