基于Gemini大模型的自动化学术研究工具:从原理到实践

news2026/5/10 17:16:39
1. 项目概述当AI学会自主研究最近在GitHub上闲逛发现了一个让我眼前一亮的项目supratikpm/gemini-autoresearch。简单来说这是一个利用Google的Gemini大语言模型实现自动化、端到端学术研究的工具。作为一名长期和数据、文献打交道的从业者我深知从确定研究主题到搜集资料、分析文献、撰写报告这一整套流程有多么耗时耗力。这个项目恰恰瞄准了这个痛点。它不是一个简单的文献检索工具而是一个“AI研究助理”。你只需要给它一个研究主题它就能自动帮你规划研究路径从互联网上主要是Google Scholar和ArXiv抓取相关的学术论文理解并总结这些论文的核心内容分析它们之间的关联最终生成一份结构清晰、内容详实的研究报告。这听起来是不是有点像科幻电影里的场景但它的代码就实实在在地躺在GitHub上。这个项目特别适合几类人一是学术研究者尤其是研究生和青年学者可以快速了解一个新领域的研究现状二是行业分析师或产品经理需要快速对某个技术趋势进行深度调研三是像我这样的技术爱好者喜欢探索前沿工具并将其应用到实际工作中提升效率。接下来我就带大家深入拆解这个“AI研究员”是如何工作的以及如何把它用起来。2. 核心架构与工作流拆解要理解gemini-autoresearch的强大之处得先看看它的“大脑”和“四肢”是怎么协调工作的。整个项目的架构设计得非常清晰遵循了一个典型的研究工作流。2.1 核心组件与依赖关系这个项目主要依赖几个核心的“外部大脑”和“工具手”Google Gemini API这是项目的“思考中枢”。所有关于研究规划、内容理解、信息综合和报告撰写的“智力活动”都交由Gemini模型来完成。项目默认使用gemini-1.5-pro模型它在长文本理解和复杂推理任务上表现优异。Serper API这是项目的“侦察兵”。Serper是一个专门用于搜索的API它负责执行Google学术搜索获取与主题相关的论文列表包括标题、链接、摘要等元数据。相比直接爬取网页使用API更稳定、合规且高效。ArXiv API这是项目的“专业图书馆”。对于计算机科学、数学、物理学等领域的预印本论文直接从ArXiv这个权威仓库获取是最佳路径。项目会智能判断优先从ArXiv获取全文PDF。本地处理引擎LangChain 自定义模块这是项目的“流水线”和“车间”。项目利用LangChain框架来编排整个工作流同时自定义了论文下载、PDF解析、文本分块、向量存储等模块。特别是PDF解析它需要从下载的PDF中准确提取文本和参考文献这是后续分析的基础。整个工作流可以概括为用户输入主题 - Gemini规划研究子问题 - Serper/ArXiv搜索论文 - 下载并解析PDF - Gemini深度阅读并总结每篇论文 - Gemini综合所有信息撰写研究报告。2.2 自动化研究流程的七个阶段这个过程被精细地分解为七个阶段就像一个经验丰富的研究员在有条不紊地工作第一阶段研究规划与问题分解用户输入一个宽泛的主题例如“对比学习在自监督视觉表征学习中的应用”。Gemini模型不会直接去搜这个巨大的主题而是会先进行“头脑风暴”。它会将这个宏观主题分解成4-6个更具体、更具探索性的子问题。例如子问题1对比学习的基本原理和关键损失函数如InfoNCE是如何工作的子问题2在计算机视觉领域SimCLR、MoCo、BYOL等经典对比学习框架各有何特点和优劣子问题3对比学习如何解决对负样本数量的依赖或避免“崩溃解”问题子问题4最新的对比学习研究趋势是什么例如与扩散模型、掩码自编码器的结合。这种分解至关重要它使得后续的搜索和分析目标更明确生成的研究报告也会更有层次和深度。第二阶段智能搜索与论文获取针对每一个分解出的子问题系统会调用Serper API在Google Scholar上进行搜索。这里有一个关键技巧搜索查询的构造。项目不是简单地把子问题扔给搜索引擎而是会让Gemini根据子问题生成一组更优化、包含关键术语的搜索关键词。例如对于“SimCLR、MoCo、BYOL的对比”生成的搜索词可能是“SimCLR vs MoCo vs BYOL performance comparison 2023”或“contrastive learning frameworks review”。这样能显著提高搜索结果的相关性和质量。获取到论文列表后系统会优先选择那些来自ArXiv的链接因为可以直接通过ArXiv API免费、稳定地下载PDF。对于其他来源项目会尝试直接下载但这部分成功率受网站限制影响较大。第三阶段论文内容提取与预处理下载到的PDF文件需要被“读懂”。项目使用PyPDF2或pdfplumber这样的库来提取原始文本。但学术论文PDF结构复杂包含图表、公式、参考文献等。简单的文本提取会得到一堆杂乱无章的字符串。因此项目内置了文本清洗和分块逻辑清洗移除过多的换行符、页码、页眉页脚等噪音。分块将一篇长论文按章节或固定长度例如1000个字符分割成多个“块”。这是因为大语言模型有上下文长度限制无法一次性吞下整篇论文。分块后每个块可以单独或组合起来送给模型进行分析。第四阶段深度阅读与单篇论文摘要这是体现AI“理解力”的核心环节。对于每一篇论文的每一个文本块或组合后的核心内容系统会将其与对应的子问题一起提交给Gemini模型并发出如下指令“请基于以下文本总结这篇论文为解决[子问题X]提供了哪些核心观点、方法或证据。” Gemini会从文本中提取关键信息生成一段针对该子问题的、精炼的摘要。实操心得这个阶段最耗API Token也最影响最终报告质量。在项目配置中你可以调整summary_length参数来控制摘要的详细程度。对于探索性调研可以设置得精简一些如200字若要写深度综述则需要更详细的摘要如500字。这直接关系到你的预算和报告深度。第五阶段信息综合与跨论文分析当所有相关论文都被阅读并针对各个子问题生成了摘要后系统就拥有了一个结构化的“知识库”每个子问题下都对应着来自多篇论文的多个观点。接下来Gemini扮演“研讨会主席”的角色。它会针对每一个子问题综合分析其下的所有论文摘要识别出共识点、争议点、演进脉络和核心方法对比。例如在对比学习框架子问题下它可能会总结出“SimCLR 强调了大批量数据和数据增强的重要性MoCo 通过动量编码器和队列机制在有限批量大小下实现了高性能BYOL 则去除了对负样本的依赖是一个纯正样本方法。” 这个阶段输出的是比单篇摘要更高阶的“洞察”。第六阶段结构化报告生成有了对所有子问题的深入分析最后一步就是“执笔成文”。Gemini会根据最初的研究主题和所有分析结果生成一份完整的研究报告。一份优秀的报告通常包含摘要概括整个研究的主要发现。引言阐述研究背景、意义和核心问题。主体章节每个分解出的子问题独立成节详细阐述该问题的分析过程、各论文观点对比、以及综合结论。讨论与总结总结整体发现指出当前研究的局限性和未来可能的方向。参考文献列出所有被分析和引用的论文。第七阶段输出与格式整理最终的报告会以Markdown格式保存清晰易读方便你直接导入到笔记软件如Obsidian、Notion或转换为PDF/Word进行进一步编辑。3. 从零开始部署与配置实战看懂了原理手痒想自己搭一个没问题下面就是详细的“开箱即用”指南。我会以在Linux/MacOS系统上部署为例Windows用户安装Python和Git的步骤类似。3.1 环境准备与依赖安装首先确保你的机器上已经安装了Python 3.8和Git。然后我们一步步来。第一步克隆项目代码打开终端找一个你喜欢的目录执行git clone https://github.com/supratikpm/gemini-autoresearch.git cd gemini-autoresearch这会把项目所有的源代码下载到本地。第二步创建并激活Python虚拟环境强烈建议使用虚拟环境来管理依赖避免污染系统Python环境。python -m venv venv # 激活环境 # Linux/MacOS: source venv/bin/activate # Windows: # venv\Scripts\activate激活后你的命令行提示符前通常会显示(venv)。第三步安装项目依赖项目根目录下有一个requirements.txt文件列出了所有必需的库。pip install -r requirements.txt这个过程会安装langchain,google-generativeai,pyarxiv,pypdf2等核心库。如果网络较慢可以考虑使用国内镜像源例如pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple。3.2 关键API密钥的获取与配置这是整个项目能跑起来的“燃料”你需要准备三个API密钥。1. Google Gemini API 密钥访问 Google AI Studio 。登录你的Google账号。在页面中找到“Get API key”的选项创建一个新的API密钥。复制这串密钥。注意Gemini API目前撰写本文时并非完全免费但有免费的额度可供试用具体计费需查看Google AI Studio的说明。2. Serper API 密钥访问 Serper.dev 。注册一个账号。在Dashboard中你可以看到免费的额度每月一定次数的搜索。对于个人和小规模研究免费额度通常足够。创建并复制你的API密钥。3. ArXiv API好消息是ArXiv API 是公开且免费的无需密钥即可直接使用。项目中的pyarxiv库就是它的封装。配置密钥项目通常通过环境变量来读取这些敏感信息。这是最安全、最方便的做法。# 在终端中激活虚拟环境后设置环境变量仅当前会话有效 export GEMINI_API_KEY你的_Gemini_API_密钥 export SERPER_API_KEY你的_Serper_API_密钥 # 对于Windows (PowerShell): # $env:GEMINI_API_KEY你的_Gemini_API_密钥 # $env:SERPER_API_KEY你的_Serper_API_密钥更一劳永逸的方法是创建一个.env文件在项目根目录下GEMINI_API_KEY你的_Gemini_API_密钥 SERPER_API_KEY你的_Serper_API_密钥然后在你的Python代码中使用python-dotenv库来加载它。不过查看gemini-autoresearch的主脚本它通常会直接从环境变量读取所以直接在终端导出是最快的。3.3 首次运行与参数调优项目的主入口通常是一个Python脚本比如main.py或research.py。你需要用命令行参数来启动它。一个最基本的运行命令如下python main.py --query 你的研究主题但这远远不够。为了让研究更高效、更符合你的需求你需要了解并调整一些关键参数。这些参数通常在脚本中定义为命令行参数或者在一个配置文件中。参数名含义与建议值影响说明--query/-q研究主题。要求尽可能具体明确。输入“联邦学习”比“机器学习”要好。主题越具体AI分解的问题和搜索的结果越精准。--num-questions子问题数量。默认可能是4。范围建议3-6。问题太少研究可能不全面问题太多会导致研究过于发散成本时间和API费用激增。--num-sources每个子问题搜索的论文数量。默认可能是5。决定每个子问题下有多少篇论文会被深入阅读。建议从3-5开始根据报告深度需求调整。--summary-length单篇论文摘要的长度。默认可能是300字符或词。控制摘要的详细程度。值越大Gemini生成的摘要越详细消耗的Token越多最终报告也越细。--model使用的Gemini模型。默认是gemini-1.5-pro。如果可用可以尝试gemini-1.5-flash以追求速度或gemini-1.5-pro追求质量。--output输出报告的文件路径。指定报告保存的位置和文件名如./reports/my_research.md。一个调优后的完整运行命令示例python main.py \ --query Vision Transformer (ViT) 在医学图像分割中的最新进展 \ --num-questions 5 \ --num-sources 4 \ --summary-length 400 \ --output ./reports/vit_medical_segmentation.md这个命令会让AI围绕“ViT在医学图像分割的进展”这个主题提出5个关键子问题为每个问题查找并深度阅读4篇核心论文生成每篇约400字的详细摘要最终将报告保存到指定路径。重要提示首次运行前务必在项目根目录下创建一个reports文件夹如果脚本不会自动创建的话否则可能会报错找不到输出路径。4. 核心功能模块深度解析了解了怎么用我们再来钻得深一点看看几个核心模块是怎么实现的以及有哪些可以优化和注意的地方。4.1 搜索策略优化如何找到最相关的论文搜索是整个研究流程的源头如果搜到的论文质量不高后面分析得再精彩也是徒劳。gemini-autoresearch的搜索策略有几个可圈可点之处也有我们可以手动干预的地方。默认策略问题导向搜索如前所述它不是用原始主题搜索而是用Gemini生成的、更精确的子问题来搜。来源优先级优先抓取ArXiv链接因为PDF获取稳定、免费。对于非ArXiv链接它会尝试直接下载但很多学术出版社的网站有反爬机制成功率无法保证。结果去重会自动过滤掉标题高度相似的论文避免重复分析。潜在问题与优化方案问题Serper API返回的结果可能受搜索算法时效性影响最新的论文不一定排在最前。优化可以修改搜索查询加入年份限制。例如在子问题后手动添加“2024”或“last 2 years”。但这需要你修改代码中构造搜索查询的部分。问题完全依赖Google Scholar可能错过一些特定数据库如PubMed for 生物医学的论文。优化项目架构是开放的。理论上你可以为不同的子问题配置不同的搜索“代理”Agent。例如对于生物医学子问题调用PubMed API的代理对于计算机科学子问题调用SerperArXiv代理。这需要较强的开发能力但能极大提升研究的全面性。问题免费版Serper API有速率和次数限制。优化在代码中合理添加time.sleep()间隔避免请求过快被限制。对于大规模研究需要考虑升级Serper套餐或寻找替代方案。4.2 论文内容处理从PDF到模型可读文本下载到PDF只是第一步如何把格式复杂的PDF变成干净、结构化的文本是另一个技术难点。流程拆解PDF解析使用PyPDF2或pdfplumber库提取每一页的原始文本。pdfplumber在表格提取上通常更准确。文本清洗合并被错误断开的单词hyphenation。移除页眉通常包含期刊名、卷期号、页脚页码、以及孤立的数字或符号行。识别并可能保留章节标题通过字体大小或特定格式推断但这部分实现通常较简单。文本分块这是为了适配LLM的上下文窗口。简单的方法是按固定字符数如1500字符重叠分块。更高级的方法会尝试按段落或章节边界进行分块能更好地保持语义完整性。项目可能采用前者因为实现简单。踩坑记录公式和图表目前的文本提取方式会完全丢失LaTeX公式和图片中的信息。这对于数学、物理等强公式依赖的学科影响很大。解决方案是使用专门的学术PDF解析器如ScienceParse或GROBID但它们部署更复杂。参考文献部分有时参考文献列表会被当作正文提取并分块送给Gemini分析这纯属浪费Token。可以在清洗阶段通过识别“References”或“Bibliography”标题来尝试剔除这部分。分块导致的上下文断裂一个核心方法描述可能被截断在两个块之间。解决方案是使用“滑动窗口”重叠分块例如后一个块的前200字符与前一个块的后200字符重叠并在后续让Gemini分析时提供一些上下文。4.3 提示工程如何让Gemini成为优秀的研究员项目的灵魂在于它与Gemini API交互的“提示词”。这些提示词精心设计引导模型完成从规划、阅读到写作的每一步。我们来看看其中的门道。1. 研究规划提示词它的核心是让模型扮演一个“研究顾问”。提示词中会包含角色设定“你是一位资深[领域]研究员。”任务指令“请将以下复杂的研究主题分解为4-6个关键的子研究问题...”输出格式要求“以JSON列表格式输出每个元素是一个子问题字符串。”思维链鼓励“请逐步思考确保问题覆盖主题的广度与深度。”2. 论文摘要提示词这是最关键的提示之一直接决定信息提取的质量。一个强大的摘要提示词会提供严格上下文“这是关于[子问题X]的研究。以下是论文《[论文标题]》的部分内容。”给出明确指令“请严格基于提供的文本总结该论文为解决上述子问题所提出的核心方法、关键发现或主要论点。不要引入外部知识。”结构化输出要求“请按以下要点总结1. 核心方法2. 实验验证3. 对本子问题的贡献。”限制与警告“如果提供的文本不包含与子问题直接相关的内容请回答‘不相关’。摘要长度控制在[summary-length]字以内。”3. 综合分析与报告撰写提示词这部分提示词要求模型进行高阶思维。它会汇总所有输入“以下是对子问题‘[问题A]’的5篇相关论文的摘要。”引导对比与综合“请分析这些研究之间的共同点、差异点、演进关系。指出主流方法是什么有哪些不同的学术观点。”要求批判性思维“基于现有证据评估哪个方法或观点更具说服力并说明理由。”生成最终文本“请将以上分析组织成一篇学术报告的一节包含引言、分点论述和一个小结。”我的调优经验直接使用项目默认的提示词效果已经不错。但如果你想获得更高质量的输出可以尝试微调对于摘要提示增加“避免直接复制原文句子要用自己的话重新表述”的指令能迫使模型进行更深度的理解。对于报告撰写增加“在适当的地方引用具体的论文摘要编号例如[1]”的指令能让生成的报告更有据可查像真正的学术写作。5. 实战应用场景与效果评估工具再好也得用在刀刃上。我尝试用gemini-autoresearch完成了几个不同领域的调研分享一下实际效果和感受。5.1 场景一快速切入一个新学术领域当我需要了解“神经辐射场NeRF在动态场景重建中的最新方法”时手动搜索和阅读二三十篇论文可能需要一周。使用这个工具我设置了5个子问题每个问题搜索4篇论文共20篇深度阅读整个过程大约用了2小时主要耗时在API调用和PDF下载花费了大约几美元的Gemini API费用具体取决于摘要长度。产出一份约8000字的Markdown报告。报告结构清晰涵盖了从NeRF基础、动态场景建模的挑战如运动模糊、拓扑变化到主要技术路线如基于变形场、基于场景流、隐式时空编码以及各类方法的优缺点对比。效果评估广度非常好。工具快速抓取了近两年该方向的大部分高引用论文和预印本让我迅速建立了领域知识地图。深度中等。单篇论文的摘要抓住了核心思想但对于方法细节、数学公式和实验设置的微妙差别理解还不够深入。它给了我一个出色的“综述”但无法替代我对关键论文的精读。准确性较高。由于提示词限制了“基于提供文本”摘要内容基本忠实于原文。但在综合部分模型偶尔会做出一些过于概括或轻微的推断需要我人工核对。结论这是一个无与伦比的“领域入门加速器”。它帮我节省了80%的文献筛选和初步阅读时间让我能快速锁定最值得精读的3-5篇核心论文。5.2 场景二竞品分析与技术方案调研在工作中我需要评估“开源大语言模型本地化部署的轻量化方案”。这是一个典型的工程调研。我输入查询“轻量化部署大型语言模型的技术方案包括模型量化、蒸馏、剪枝以及Llama.cpp、ollama等推理引擎”。 工具分解出的子问题包括1. 模型量化的主要方法INT8 GPTQ AWQ对比2. 知识蒸馏在LLM轻量化中的应用3. 结构化剪枝与稀疏化策略4. 主流轻量级推理引擎架构特点。产出一份非常实用的技术对比报告。它不仅总结了各篇论文的观点还以表格形式对比了GPTQ和AWQ量化在不同模型大小下的精度损失和速度提升分析了ollama与Llama.cpp在易用性和灵活性上的取舍。效果评估信息整合能力出色。能够从多篇工程向的论文、技术博客如果被搜索到和项目文档中提取关键参数和结论并进行横向对比。实践指导性强。生成的报告直接指向技术选型例如“对于注重部署简便性选择ollama对于追求极致性能和控制选择Llama.cpp并结合AWQ量化”。局限性对于非常新的、尚未形成大量文献的工程实践例如刚发布一周的某推理引擎新特性工具可能搜不到或信息不全。结论是技术决策的强力辅助。它能快速整合碎片化的技术信息提供多维度的对比视角帮助工程师和架构师做出更明智的选型。5.3 场景三辅助写作与内容生成你可以将它用于生成博客文章、课程讲义或项目立项背景调研的初稿。例如输入“区块链零知识证明在隐私保护中的应用现状”。工具会生成一份包含技术原理、主流协议zk-SNARKs, zk-STARKs、应用案例隐私交易身份验证和挑战证明生成耗时电路设计复杂的完整报告。这份报告本身就是一篇高质量技术科普文章的骨架。使用技巧在这个场景下你可以将--num-sources调高如8-10让信息更全面。在最终报告生成提示中加入“语言风格科普化、面向初学者”的指令。将输出报告直接导入到Notion或Obsidian在其基础上进行润色、添加个人见解和最新案例。6. 常见问题、局限性与进阶玩法没有任何工具是完美的。在使用gemini-autoresearch的过程中我遇到了不少问题也思考了如何突破它的局限。6.1 典型问题与排查指南问题现象可能原因解决方案运行后立即报错ModuleNotFoundError依赖未安装完整或虚拟环境未激活。1. 确认已激活虚拟环境命令行前有(venv)。2. 重新运行pip install -r requirements.txt注意观察有无报错。报错Invalid API Key或Permission DeniedAPI密钥未设置或设置错误。1. 使用echo $GEMINI_API_KEY检查环境变量是否正确设置。2. 确保密钥没有多余空格或换行符。3. 前往对应API平台检查密钥是否被禁用或额度是否用完。程序卡在“Searching for papers...”很久Serper API请求超时或达到速率限制网络连接问题。1. 等待几分钟可能是临时网络问题。2. 检查Serper账户的用量和限制。3. 在代码中搜索time.sleep适当增加请求间隔如从1秒改为2秒。下载到的PDF数量远少于搜索数量许多论文链接指向出版社网站无法直接下载ArXiv ID匹配失败。这是正常现象。学术PDF获取本就是难题。可以1. 接受这个折衷依赖摘要进行初步筛选。2. 考虑集成scihub的第三方库需注意法律和伦理风险。生成的报告内容空洞、重复搜索到的论文质量不高摘要提示词不够严格summary-length设置过短。1. 优化你的查询主题使其更具体。2. 修改提示词加入“避免泛泛而谈”、“聚焦具体技术细节”等指令。3. 增加summary-length到500或更高。Gemini API返回429频率限制错误免费额度请求过快或耗尽。1. 在代码中大幅增加请求间的延迟time.sleep(5)或更长。2. 检查Google AI Studio的配额使用情况。3. 考虑申请付费或等待配额重置。6.2 当前版本的核心局限性“黑盒”搜索你无法干预具体的搜索排序和结果选择。如果前几篇论文恰好是质量不高的会直接影响后续分析。缺乏人工“精选”环节。深度理解天花板LLM毕竟是基于统计的模式匹配对于需要极度严谨逻辑推理、复杂数学推导或批判性思辨的内容其理解存在天花板。它擅长总结和连接已知观点但难以产生真正原创的、颠覆性的见解。无法处理非文本信息完全忽略论文中的图表、公式和实验数据曲线。而这些往往是理解一篇论文的关键。时效性依赖搜索API其知识截止日期取决于Gemini模型的训练数据截止日期而最新论文的获取则完全依赖Serper和ArXiv的索引速度。对于“本周刚发布”的研究它无能为力。运行成本深度阅读数十篇论文会消耗可观的Gemini API Token。对于长篇论文和高频使用需要做好预算管理。6.3 进阶玩法与扩展思路如果你不满足于基本使用这里有一些“极客”玩法构建个人研究知识库修改代码将每篇论文的摘要、元数据标题、作者、链接和原始文本块存入一个向量数据库如ChromaDB或Weaviate。这样你可以随时对你的“已读”论文库进行语义搜索问类似“帮我找出所有讨论模型剪枝中彩票假设的论文”这样的问题。实现迭代式研究第一轮研究生成报告后你可以阅读报告发现新的兴趣点或未解决的问题。然后将这些新问题作为新的--query输入进行第二轮、第三轮研究实现研究的层层深入。混合人类智能不要完全自动化。最佳实践是“AI广搜人工精读”。用工具快速生成20篇论文的摘要和综合报告。你花1小时浏览报告标记出3-5篇最关键、最感兴趣的论文。然后关闭工具亲自去深度阅读这3-5篇论文的全文。这样结合了AI的广度优势和人类的深度判断。定制化输出修改报告生成的提示词让输出格式完全符合你的需求。比如输出为项目立项书所需的“技术现状分析”章节格式或者输出为包含“优势、劣势、机会、威胁”的SWOT分析表格。gemini-autoresearch打开了一扇门它让我们看到了AI辅助深度信息处理的巨大潜力。它不是一个取代研究者的工具而是一个能力倍增器。它的价值在于帮我们扛走了文献挖掘和初步整理这座“大山”让我们能把最宝贵的时间和认知资源集中在最需要人类创造力和批判性思维的“山顶”部分——提出真问题、设计新实验、构建新理论。学会与这样的AI工具协作将是未来每个知识工作者的必备技能。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2601125.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…