利用AI与间隔重复技术,在Obsidian中自动化生成学习闪卡

news2026/5/10 17:48:17
1. 项目概述与核心价值如果你和我一样是个重度 Obsidian 用户同时又对间隔重复记忆法Spaced Repetition情有独钟那你肯定遇到过这个痛点把笔记整理成闪卡Flashcards的过程实在是太耗时、太机械了。我们花大量时间在 Obsidian 里构建知识网络但到了复习环节却要手动把一个个知识点拆成问答对这个过程不仅打断了流畅的思考还容易让人产生倦怠感。Obsidian Flashcards LLM这个插件就是来解决这个核心矛盾的。它本质上是一个桥梁一端连接着你沉淀在 Obsidian 里的、结构或非结构化的知识笔记另一端则接入了以 OpenAI GPT 系列为代表的大语言模型LLM。通过 LLM 的理解和生成能力它能自动将你的笔记内容转化为可直接用于复习的闪卡。这个插件的价值远不止是“自动生成”那么简单。它真正厉害的地方在于它把 AI 变成了一个理解你笔记内容的“学习伙伴”。这个伙伴能读懂你笔记的上下文识别出哪些是核心概念哪些是细节阐述然后按照你预设的格式比如 Anki 常用的QA格式或者多行问答批量生成高质量的复习材料。这意味着你可以把更多精力集中在知识的输入、连接和深度思考上而将重复性的、模式化的输出工作交给 AI。对于学生、研究者、备考人士或者任何需要持续学习和记忆新知识的终身学习者来说这无疑是一个效率倍增器。我实测下来它让从“记笔记”到“开始复习”的路径变得无比顺滑真正实现了在同一个知识管理环境内的学习闭环。2. 插件核心功能与设计思路拆解2.1 核心工作流从笔记到闪卡的无缝转换插件的核心工作流非常直观完美契合 Obsidian 以笔记为中心的操作习惯。其设计思路可以概括为“选择-生成-整合”三步法。首先上下文选择。你可以在任意打开的笔记中用鼠标高亮选择一段特定的文本。这个动作就是在告诉 AI“请专注于理解并处理这部分内容。”如果你不进行选择插件默认会将整篇笔记作为上下文。这个设计非常灵活既允许你对长篇笔记进行“切片式”的闪卡化处理也支持对某个复杂段落进行重点突破。其次AI 理解与生成。当你通过命令面板Command Palette或快捷键触发生成命令后插件会将你选中的文本或全文与一个精心设计的系统提示词System Prompt组合发送给你在设置中配置好的 OpenAI 模型。这个系统提示词是关键它本质上是在“教”AI 如何扮演一个“闪卡生成专家”的角色。提示词会明确要求模型1. 基于提供的文本内容2. 生成指定数量的、高质量的问答对3. 严格遵守指定的输出格式如Q和A作为分隔符。模型在理解文本语义的基础上会尝试提炼关键知识点并以问答形式重新组织语言。最后无缝整合。生成的结果不会出现在某个弹窗或新文件里而是以“流式”Streaming的方式直接追加到你当前笔记的末尾并包裹在 Obsidian 的引用块中。这样做有几个精妙之处一是生成的闪卡与源笔记在物理空间上紧密关联便于追溯和对照修改二是引用块的格式天然地区分了生成内容和你的原始笔记三是这种格式完美兼容 Obsidian Spaced Repetition 等闪卡复习插件为后续的复习管理铺平了道路。2.2 与 Spaced Repetition 插件的深度协同单独看Obsidian Flashcards LLM 是一个强大的生成工具。但它的设计远见体现在与obsidian-spaced-repetition插件的深度集成上。后者是一个成熟的间隔重复复习系统支持在 Obsidian 内直接复习和管理闪卡。Obsidian Flashcards LLM 生成的闪卡默认格式就是 Q问题内容和 A答案内容这样的行。而 obsidian-spaced-repetition 插件能够自动识别这种位于引用块内的、以Q和A开行的文本并将其注册为一张可复习的闪卡。这意味着你使用 LLM 插件生成闪卡后几乎不需要任何额外操作就可以立刻切换到 Spaced Repetition 插件界面开始复习或者让系统按照艾宾浩斯遗忘曲线为你安排复习计划。这种“生成即复习”的体验是革命性的。它避免了数据在不同应用间导入导出的麻烦保证了知识从记录、加工到复习的全流程都在 Obsidian 这个安全、可控的本地环境中完成。插件设置中甚至有一个贴心的选项“在预览模式隐藏生成的闪卡”。开启后你在正常浏览笔记时看不到那些闪卡保持笔记的整洁只有当你进入复习模式时它们才会出现。这充分体现了开发者对用户体验细节的考量。3. 详细配置与模型选择指南3.1 初始安装与 API 配置插件的安装和大多数 Obsidian 社区插件一样简单。在 Obsidian 的设置中进入“社区插件”市场搜索 “Flashcards LLM” 即可找到并安装。安装后需要启用插件然后最关键的一步就是配置 OpenAI API。点击插件设置你会看到“OpenAI API Key”字段。你需要一个有效的 OpenAI API 密钥。获取方式是在 OpenAI 官网注册账号并在 API 页面生成一个密钥。这里有一个非常重要的安全提示你的 API 密钥就像密码千万不要泄露也不要提交到任何公开的 Git 仓库。Obsidian 的插件设置是保存在你本地电脑上的相对安全但也要有基本的安全意识。将密钥粘贴到设置中后插件就具备了调用 AI 能力的基础。接下来是“模型选择”。这是影响生成效果和成本的核心设置。插件支持非常广泛的 OpenAI 模型从经典的gpt-3.5-turbo到强大的gpt-4o、gpt-4-turbo甚至是最新的o1、o4-mini等推理模型。3.2 模型选择策略与成本效益分析面对众多模型该如何选择我的经验是基于“任务复杂度”和“成本敏感性”建立一个简单的决策矩阵。对于绝大多数日常的、概念性的笔记比如学习一门新编程语言的语法、历史事件的时间线、生物学术语定义gpt-4o模型是当前的“甜点”选择。它的速度非常快几乎在几秒内就能返回结果理解指令准确生成的闪卡格式规范而且价格相对于之前的 GPT-4 系列亲民很多。它的性价比在速度、智能和成本之间取得了最佳平衡。如果你的笔记内容极其简单或者你只是想快速测试一下功能可以尝试gpt-3.5-turbo。它更便宜速度也快。但需要注意正如插件作者提醒的它“有时会搞错格式”。在我的测试中对于稍微复杂一点的逻辑关系gpt-3.5-turbo也可能生成不准确或过于简化的答案。因此仅推荐用于对质量要求不高的场景。对于高难度任务比如从一段复杂的数学推导、哲学论述或法律条款中提炼闪卡gpt-4-turbo或最新的gpt-4.1系列模型是更好的选择。这些模型在遵循复杂指令、进行深度推理和保持逻辑一致性方面表现更出色。代价是生成速度会慢一些并且 API 调用成本更高。gpt-4-turbo在处理需要长篇幅回答的闪卡时确实能更紧密地贴合你在“附加提示词”中设置的额外要求。关于新加入的推理模型如 o1, o3-mini它们的特点是专门为“思考”过程优化。如果你希望生成的闪卡不仅仅是事实问答而是能包含一些解题步骤、推理链条例如“请解释这个物理公式是如何从牛顿第二定律推导出来的”那么可以尝试使用这些模型并在设置中调整“推理强度”Reasoning Effort。通常“中”medium强度就能在思考深度和响应时间之间取得不错的效果。这些模型按 token 计费通常更贵但对于需要深度加工的学习材料其产出质量可能物有所值。3.3 核心参数设置详解除了模型设置页面还有其他几个关键参数理解它们能让你更好地驾驭这个工具。闪卡数量默认是 5 张。这个数字需要根据你选择文本的长度和密度来调整。一段 200 字的段落生成 5 张卡可能刚好一篇 1000 字的文章生成 5 张卡可能就遗漏了很多要点。我的经验法则是每 150-200 个英文单词或对应篇幅的中文可以对应 1 张闪卡。你可以先尝试默认值再根据输出结果调整。最大输出 Token 数这是一个安全阀防止 AI 因“话痨”而产生过高的 API 费用。Token 是 OpenAI 计量文本的单位一个英文单词大约 1-2 个 token一个中文字符大约 1-2 个 token。一张格式为Q: ... A: ...的简单闪卡大约需要 50-150 个 token。如果你设置生成 5 张卡最大输出 token 设为 1000 通常绰绰有余。设置这个参数有助于你控制单次生成的成本。内联闪卡分隔符/多行闪卡分隔符这决定了生成闪卡的格式。内联闪卡是指问题和答案在同一行用分隔符隔开例如Q问题 | A答案。多行闪卡则是问题一行答案一行。默认的Q和A与 Spaced Repetition 插件兼容性最好不建议轻易修改除非你有特殊的笔记流程需求。附加提示词这是高级玩家发挥创造力的地方。系统提示词已经规定了基本任务但你可以在附加提示词中提供更具体的指令。例如“请以初中生的理解水平来生成问题和答案”、“答案中请务必包含具体的数字和日期”、“请生成的是选择题选项为A、B、C、D”。这个功能让你能对生成内容进行微调使其更符合你的特定学习目标。4. 实战操作流程与命令解析4.1 两种核心生成模式插件提供了两个最常用的命令对应两种闪卡格式你可以通过CmdP(Mac) 或CtrlP(Windows/Linux) 打开命令面板搜索并执行。生成内联闪卡这个命令会生成类似 Q光合作用的场所是 A叶绿体。这样的闪卡即问答在同一行。这种格式紧凑适合快速复习和事实性知识。在 Spaced Repetition 插件中它会将整行作为问题答案部分通常需要在设置中指定分隔符如A才能正确隐藏。生成多行闪卡这个命令会生成如下格式 Q请简述牛顿第一定律。 A任何物体都要保持匀速直线运动或静止状态直到外力迫使它改变运动状态为止。问题和答案分处两行结构更清晰尤其适合答案较长、需要分段或列表的情况。这是我最常使用的格式因为它与 Spaced Repetition 插件的兼容性最好复习时体验也最佳。操作心法在实际使用中我强烈建议养成“先选择后生成”的习惯。即使是对整篇笔记操作也最好用鼠标全选一下。这有两个好处一是明确告诉 AI 上下文边界避免它意外读取了笔记标题、YAML 前言或其他无关内容二是形成一种心理上的“操作仪式感”让你对生成过程更有掌控力。4.2 动态设置命令灵活调整的利器除了上述两个固定命令插件还有一个强大的“使用新设置生成闪卡”命令。执行这个命令时它会弹出一个交互式对话框让你可以临时覆盖全局设置中的三个关键参数自定义提示词、闪卡数量和是否生成多行闪卡。这个功能的应用场景非常灵活。比如你正在阅读一篇关于“机器学习损失函数”的笔记已经用默认设置生成了一批基础定义的闪卡。现在你想针对其中最难理解的“交叉熵损失”部分进行深入挖掘就可以选中关于“交叉熵损失”的段落。运行“使用新设置生成闪卡”命令。在弹出框中将提示词改为“请生成3个深入理解交叉熵损失的闪卡问题需要涉及公式、直观解释和与KL散度的关系”。将数量设为3格式选为多行。点击生成。这样你就在不改变全局设置的前提下完成了一次高度定制化的闪卡生成。这个功能让你可以像使用一个智能助手一样随时根据当前的学习重点发出精确的指令。4.3 生成结果的处理与优化AI 生成的内容并非完美无缺因此“生成-审查-编辑”是一个必要的闭环。闪卡生成后会以流式输出的形式出现在笔记末尾。你需要快速浏览一遍检查准确性答案是否与原文事实相符是否有 AI 臆造或误解的内容清晰度问题是否表述清晰没有歧义答案是否直接、完整格式是否严格遵守了Q和A的格式对于多行闪卡是否每个问答对都正确包裹在独立的引用块中如果发现错误直接在原位置编辑即可。这也是为什么闪卡要生成在笔记内部的好处——修改起来无缝衔接。有时候AI 可能会生成一个过于宽泛的问题比如“请解释文艺复兴”。这时你可以手动将其细化比如改为“文艺复兴时期‘人文主义’的核心思想是什么”这样复习时才更有针对性。5. 高级技巧与疑难问题排查5.1 提升生成质量的实用技巧经过大量实践我总结出几个能显著提升闪卡生成质量的心得优化源笔记质量Garbage in, garbage out垃圾进垃圾出。AI 的理解基于你提供的文本。确保你的笔记本身结构清晰、语言准确。对于复杂概念在笔记中多用列表、加粗和层级标题来组织信息这能帮助 AI 更好地识别重点。例如与其写一大段关于“细胞结构”的文字不如用二级标题列出“细胞膜”、“细胞质”、“细胞核”然后在每个标题下用要点简述功能。AI 从结构化的文本中生成闪卡的准确率会高很多。善用“附加提示词”进行角色扮演和约束不要只把附加提示词当作简单的指令补充。尝试让 AI 扮演特定角色。例如“你是一位经验丰富的医学教授正在为大一新生准备解剖学预习卡片。请生成5张闪卡问题要直接考察关键结构名称答案要简洁准确。” 这样的提示能引导 AI 以更专业的视角和更合适的难度来生成内容。分而治之不要总试图让 AI 一次性从一篇很长的笔记中生成所有闪卡。将长笔记按逻辑章节或主题拆分成多个部分对每个部分分别执行生成操作。这样不仅降低了 AI 的上下文理解负担提高了生成质量也让你生成的闪卡更有组织性。你甚至可以在每个章节的闪卡前加上一个## 章节名复习卡的标题来分组。迭代生成如果第一次生成的结果不理想比如问题太浅或答案不全不要直接删除。你可以将第一次生成的不太满意的闪卡也作为上下文的一部分然后再次运行生成命令。在附加提示词里写上“基于以上内容请生成一些更深度的、关注于机制和原理的闪卡。” AI 会结合原始笔记和已有的初级闪卡尝试生成更深入的问题。5.2 常见问题与解决方案实录即使配置正确在实际使用中也可能遇到一些问题。下面是我遇到过的典型情况及其解决方法问题现象可能原因排查步骤与解决方案执行命令后无任何反应或提示“命令执行失败”。1. OpenAI API 密钥未填写或错误。2. 网络连接问题无法访问 OpenAI API。3. API 密钥余额不足或过期。1.检查设置确认插件设置中的 API 密钥已正确粘贴前后无空格。2.测试连接打开浏览器尝试访问api.openai.com或使用curl命令测试 API 连通性。3.检查账单登录 OpenAI 平台查看 API 使用情况和余额。闪卡生成速度极慢或长时间显示“正在生成…”。1. 选择了速度较慢的模型如gpt-4-turbo。2. 提供的上下文文本过长。3. OpenAI 服务器端拥堵。1.切换模型对于非复杂任务临时切换到gpt-4o或gpt-3.5-turbo试试速度。2.缩减上下文尝试只选择最核心的段落进行生成。3.耐心等待或重试如果是服务器问题稍等片刻或取消后重试。生成的闪卡格式错乱例如没有Q:/A:标签或全部挤在一行。1. 模型尤其是gpt-3.5-turbo未能严格遵守格式指令。2. 自定义的分隔符设置与 Spaced Repetition 插件不兼容。1.更换模型优先使用gpt-4o或gpt-4-turbo它们遵循指令的能力更强。2.检查格式设置确保“内联闪卡分隔符”和“多行闪卡分隔符”设置正确。最稳妥的是使用默认的Q和A。3.手动修正对于少量错误直接编辑修正格式即可。生成的闪卡内容质量差问题肤浅或答案不准确。1. 源笔记内容本身模糊或过于简略。2. 生成的闪卡数量设置过多AI 在“凑数”。3. 未提供足够的引导附加提示词。1.优化笔记先完善笔记内容确保知识点表述清晰完整。2.调整数量减少单次生成的闪卡数量比如从 10 张改为 3-5 张。3.使用附加提示词明确要求如“请生成涉及因果关系和具体例子的闪卡”。Spaced Repetition 插件无法识别生成的闪卡。1. 闪卡没有被正确包裹在引用块中。2. 问题行不是以Q或Q:开头注意中英文冒号。3. “在预览模式隐藏闪卡”设置与 Spaced Repetition 插件冲突。1.检查格式确认每张闪卡无论是内联还是多行的每一行都以开头。2.统一冒号在插件设置和 Spaced Repetition 插件设置中检查并统一使用英文冒号:或中文冒号。3.检查设置联动如果开启了“隐藏闪卡”请确保在 Spaced Repetition 插件设置中也打开了“将复习进度注释保存在闪卡最后一行的同一行”这个选项以避免引用块格式被破坏。5.3 关于“多行闪卡生成有时不工作”的深度解析插件文档中提到“多行闪卡生成有时不工作”这是一个已知的、与模型行为相关的问题。其根本原因在于让 AI 严格生成“一个问题块紧接一个答案块”的稳定结构比生成内联格式需要更精确的指令遵循能力。gpt-3.5-turbo在这方面相对薄弱可能会漏掉A标签或者把多个问答对混在一起。解决方案非常明确使用指令遵循能力更强的模型。gpt-4o是目前解决此问题的最佳选择它在格式遵循上几乎完美且速度和成本俱佳。如果追求极致稳定性gpt-4-turbo是更保险的选择。这本质上是一个在成本、速度和可靠性之间的权衡。对于正式、批量的闪卡生成任务我强烈建议避开gpt-3.5-turbo用于多行格式以避免后续手动整理格式的时间浪费。6. 个人使用心法与未来展望经过几个月的深度使用Obsidian Flashcards LLM 已经成了我学习流程中不可或缺的一环。它最大的价值不是百分百的自动化而是将我从机械劳动中解放出来让我能更专注于学习本身。我现在习惯在阅读文献或学习新课程时同步在 Obsidian 做笔记。每完成一个逻辑段落或章节就花 10 秒钟选中文本用gpt-4o生成 3-5 张多行闪卡。生成后快速扫一眼修正个别表述然后就交给 Spaced Repetition 插件去安排复习。这个流程极大地降低了从“学习”到“记忆”的阻力。我个人的一个核心心法是把 AI 当作初级助教而你永远是主编。AI 负责起草初稿完成从“文本”到“问题雏形”的第一次转换。而你需要基于自己的理解对这些问题进行审核、深化、修正和补充。例如AI 可能会问“什么是函数式编程”你可以把它改成“为什么说‘纯函数’和‘不可变数据’是函数式编程的两大基石它们各自带来了什么好处”。后者显然是一个更能引发思考、巩固理解的好问题。关于插件的未来作者提到的“反向闪卡”、“自动创建复习 deck”等功能都非常值得期待。反向闪卡意味着可以自动从答案生成问题这对于多角度记忆一个知识点很有帮助。而自动创建 deck 则能进一步简化复习管理。我相信随着模型能力的进化和插件功能的丰富这种“笔记 AI 加工 间隔重复”的学习模式会变得越来越强大和普及。它代表的是一种人机协同的新学习范式我们负责提供素材、设定目标和最终把关而 AI 则承担起中间繁琐的、模式化的信息重组工作。对于任何追求高效学习的人来说掌握并善用这样的工具无疑是在为自己构建一道强大的竞争壁垒。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2601194.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…