研究神器组合:Claude Code + NotebookLM + Obsidian
Claude Code NotebookLM Obsidian研究神器组合导语本文介绍如何用Claude Code skill把 NotebookLM 里的内容全部导出到 Obsidian生成可跳转的知识图谱。核心价值在于只需三条终端命令就能把 20 个 YouTube 视频变成带引用溯源的问答结果并自动存入本地知识库。引用准确率约 60% 精确匹配、31% 部分匹配远胜于看完全部视频后凭记忆整理。适合需要系统化处理大量视频、论文、文档的研究者。你的研究被困在 NotebookLM 里。我的研究变成了知识图谱。NotebookLM 能阅读 300 个来源。但然后呢你把答案复制粘贴到笔记里引用就丢了。研究留在一个你永远不会重新打开的浏览器窗口里。所以我写了一个 Claude Code skill把所有东西拉出来。三条终端命令——搜索 YouTube、添加 20 个视频作为来源、提问。每个答案都带引用精确指向具体哪个视频说了什么。然后一切落入 Obsidian变成知识图谱。每个来源对应一个文件每个主题对应一个文件引用在它们之间创建链接。我打开Claude Code这个主题就能看到哪 6 个视频提到过它、说了什么并顺着链接找到原始段落。我几个月前试过把 NotebookLM 连接到研究工作流放弃了。太慢了。要在浏览器里手动一个一个添加来源点来点去。NotebookLM 支持最多 300 个来源——这正是它区别于直接问 Claude 的地方——但谁会把 300 个文件拖进浏览器窗口呢现在不一样了。我写了一个 Claude Code skill在终端里搞定一切。20 个 YouTube 视频变成一个可以漫游的知识图谱。改造前20 个浏览器标签页复制粘贴引用丢失。改造后一条终端命令。NotebookLM 是 Google 的研究工具。你给它来源——YouTube 视频、PDF、网页文章、你自己的笔记——它全部读取。当你提问时它给出一个带引用的答案精确指向具体哪个来源说了什么。不会幻觉因为它只使用你给它的内容。与浏览器工作流的关键区别我对来源有更精细的控制。不用 NotebookLM 内置的推荐它推荐什么就推荐什么我精确选择放进哪些来源。我可以从终端搜索 YouTube看到结果后选择添加哪些视频。这样提高了信噪比。为什么 AI 编程工具都在复古做 CLI可以用自定义 persona 来设置每个笔记本——告诉 NotebookLM 简洁直接地回答或用适合你研究的任何风格。研究工作流我想研究其他人用 Claude Code 和 Obsidian 在做什么。不必以 2 倍速看完 20 个 YouTube 视频、看到第 6 个视频时已经忘了第 2 个视频说了什么我跑了三条命令搜索相关 YouTube 视频创建一个 NotebookLM 笔记本把 20 个视频全部添加为来源提问获取带引用的答案notebooklm ask --new --json 这些视频的 gap 在哪里一条终端。没有浏览器标签页。Claude Code 编排了整个流程。引用是这件事变得有用的原因。当 NotebookLM 说三位创作者提到用 Obsidian Bases 做上下文管理它会精确指向哪个视频、哪个时间戳。我测试了引用准确率约 60% 是对精确段落的强匹配31% 部分匹配10-15% 弱匹配。不完美但远比我看完 20 个视频后凭记忆整理要好。在底层每个答案都以结构化 JSON 形式返回——每个声明都有一个标记如 [1] 或 [2]追溯到具体来源和段落引用工作原理每个声明都能追溯回具体来源和段落实际上这意味着你可以点击进入原始视频和时间戳引用标记在实际中——答案指向精确的来源带段落级深链接每个答案都有依据——你可以把声明追溯回来源。作为研究起点足够可靠但不经验证就用于论文引用还不行。这就是带引用的答案落入 Obsidian 时的样子——来自来源的确切段落带有返回原始依据的链接2026年金融分析的生产力革命。每天花3小时整理数据你的投研工作流该升级了#Mixlab 投研AgentOS#N2期知识图谱一切最终都回到 Obsidian。不是平铺dump而是链接的知识图谱。每个来源变成一个文件。每个主题变成一个文件。引用在它们之间创建 wikilinks。所以当我在保险库里打开Claude Code这个主题时可以看到哪 6 个视频提到过它、说了什么并顺着链接找到确切段落。以前会消失在浏览器标签页里的研究现在活在知识库里与其他一切连接在一起。因为它们都是你电脑上作为 markdown 文件存在的——你拥有它。Claude 能读取你能搜索它不会被困在 NotebookLM 浏览器窗口里。Claude Code 在 Obsidian 里创建研究仪表板。带有 YouTube 缩略图的来源、作为图谱中心的主题以及显示每个视频在你的问答答案中被引用的位置的引用反向链接。所有在一张视图里。引用变成 wiki links。当你打开一个问答答案时每个声明都链接回它来自的来源段落打开图谱视图你可以看到整个网络——来源、主题和引用全部连接这就是从输入到输出的完整流程播客风格音频概览知识图谱是一种输出。音频是另一种。NotebookLM 可以从你所有来源生成播客风格的音频概览——两个 AI 主持讨论你的研究引用你的材料。同样的来源不同的格式。我输入一条命令它生成音频落入我的保险库通过 Obsidian Sync 同步到手机。notebooklm audio generate --topic Claude Code Obsidian 工作流的 gap播客落入你的知识库通过 Obsidian Sync 同步到手机。我在走路时听着 20 个视频的摘要——我自己的研究作为播客在手机上。我在 Obsidian Mobile 上播放音频概览——闪卡、音频全部从桌面同步我不知道这是研究的未来还是一个有趣的把戏。但我在用。当我有一个含 15 个来源的笔记本想在深入研究前了解大概我会生成音频边做其他事边听。还能做什么视频用 33 分钟覆盖了完整循环但这个 skill 的能力不止 YouTube 研究。我把 282 篇自己的每日笔记上传到一个笔记本。全程从终端两分钟内完成。现在我可以和过去的自己聊天——给我 2 月 10-16 日的周总结什么做得好、什么没做好——获得指向具体日子的带引用答案。睡眠维护胜利、健身一致性、深夜破坏模式——全部从我自己日记条目中拉出来引用回具体每日笔记。与去年 282 篇每日笔记聊天——带引用答案的周总结来自我自己的日记这就是知识库即来源的角度你自己的写作变成可查询的。我还试了其他的闪卡——NotebookLM 从任何来源集生成学习卡。我从 20 个视频得到 58 张闪卡导入 Obsidian。项目记忆的主要目标是什么——翻面——带引用的答案。幻灯片——从你的研究中生成演示幻灯片。同样带引用的来源不同的输出格式。学术研究——搜索 arXiv 上你主题的论文喂给 NotebookLM获得有依据的引用。全程可观测——回答不是胡编的。播客研究——Lex Fridman 节目每期 4 小时。喂一堆进去跨所有集问具体问题。公司入职——把你的公司文档放进 NotebookLM。新员工从终端提问而不是打扰团队。市场研究——喂竞品的博客文章、YouTube 视频。获得带引用的分析。案例 | 用一套文件夹结构循环构建你的AgentOS试试看这个 skill 是免费开源的。配置大约需要 15 分钟——你需要 Claude Code、一个 Obsidian 保险库和一个 Google 账号。在那之后三条命令让你从我想研究 X到你的保险库里带引用问答、音频概览和闪卡的知识图谱。Skill 仓库https://github.com/ArtemXTech/personal-os-skills/tree/main/skills/notebooklmPython 脚本https://github.com/ArtemXTech/personal-os-skills/tree/main/skills/notebooklm/scripts一起讨论你的研究工作流是什么你如何处理太大而无法放入一个上下文窗口的来源Mixlab AI训练营#菜单a16z机构AI vs 个人AI原文链接https://artemxtech.substack.com/p/notebooklm-has-a-knowledge-graph翻译日期2026-03-28
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2478686.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!