ChatGPT资源大全:从开源仓库到AI应用开发实战指南

news2026/5/9 23:10:37
1. 项目概述一个汇聚ChatGPT相关资源的开源仓库最近在折腾AI应用开发特别是围绕ChatGPT的各类工具和项目时发现了一个宝藏级的开源仓库jqueryscript/ChatGPT-Resources。这可不是一个简单的代码库而是一个由社区驱动的、持续更新的ChatGPT资源大全。对于任何想要深入了解、应用或二次开发ChatGPT相关功能的开发者、产品经理乃至技术爱好者来说这个仓库都是一个极佳的起点和导航站。简单来说这个项目就是一个精心整理的清单它系统地收集了与ChatGPT相关的各种资源包括但不限于官方的API文档、非官方的SDK封装、开源的客户端应用、实用的浏览器插件、部署好的在线服务、以及大量的教程、文章和最佳实践。它的核心价值在于“聚合”与“筛选”帮你省去了在浩瀚的互联网中盲目搜索、甄别优劣的时间直接提供了一个经过社区验证的、高质量的资源入口。无论你是想快速调用API开发一个聊天机器人还是想研究ChatGPT的底层原理或是寻找现成的工具来提升工作效率都能在这里找到线索。2. 资源仓库的核心价值与设计思路2.1 解决信息过载与质量参差的问题在AI技术尤其是像ChatGPT这样现象级产品爆发的初期相关的工具、库、教程会呈现爆炸式增长。GitHub上每天都有无数个以“chatgpt”开头的仓库诞生技术博客、社交媒体上也充斥着各种“最佳实践”。对于开发者而言这既是福音也是挑战。福音在于有大量可参考的素材挑战在于信息过于碎片化质量良莠不齐筛选成本极高。jqueryscript/ChatGPT-Resources这个项目的诞生正是为了解决这一痛点。它扮演了一个“社区策展人”的角色。其核心设计思路非常清晰不以创造新代码为首要目标而以高效地组织、分类和评价现有高质量资源为核心任务。项目维护者及贡献者通过提交PRPull Request的方式将他们认为有价值的资源添加到仓库的Markdown文档中并按照一定的分类标准进行组织。这种众包模式使得资源库能够紧跟技术发展的步伐快速纳入新兴的优秀项目。2.2 分类体系从应用到原理的全覆盖一个资源库是否好用分类逻辑至关重要。这个仓库的分类体系体现了从实用到深入、从工具到原理的渐进层次大致可以分为以下几类官方资源与API这是基石。包括OpenAI官方的API文档、使用指南、定价页面以及状态监控页面。任何基于ChatGPT的开发都必须从这里开始。客户端与用户界面收集了各种第三方开发的ChatGPT客户端。这些客户端可能提供了官方Web界面所没有的功能比如历史会话的本地存储、更灵活的提示词管理、多API密钥支持、甚至离线的对话体验。对于普通用户和追求更好交互体验的开发者很有价值。浏览器扩展这类资源极大地提升了ChatGPT在网页浏览中的使用体验。例如可以在任意网页文本框旁添加一个ChatGPT助手按钮一键总结长文章或者将选中的文本发送给ChatGPT进行翻译、润色。这类工具是生产力提升的利器。开发工具与SDK这是开发者的主战场。仓库汇集了各种编程语言Python, JavaScript, Go, Java等对OpenAI API的封装SDK。有些SDK提供了更简洁的接口有些则增加了重试、缓存、流式响应处理等高级功能。此外还包括一些用于调试API请求的工具、用于管理提示词Prompt的框架等。开源项目与应用展示了社区基于ChatGPT API构建的完整应用。例如将ChatGPT接入微信/Telegram的机器人、基于知识库的智能客服系统、代码生成与解释工具、AI绘画提示词生成器等。这些项目提供了完整的、可运行的代码是学习和二次开发的绝佳样板。部署与自托管方案针对希望私有化部署或使用开源替代模型的开发者。这里可能包含一些反向代理服务用于解决API访问的区域限制问题但需注意合规使用、以及如何部署类似ChatGPT UI的开源前端项目。教程、文章与学习资源包括从入门到精通的系列教程、Prompt Engineering提示词工程的最佳实践、成本优化技巧、以及一些深度的技术分析文章。注意在利用这些资源特别是涉及部署、代理类工具时务必严格遵守所在地的法律法规和服务提供商如OpenAI的使用条款。所有开发活动都应在合法合规的框架内进行。2.3 项目的维护模式与社区生态这个项目本身是一个典型的GitHub开源项目使用Markdown文件通常是README.md来承载资源列表。其活力完全依赖于社区贡献。一个好的资源仓库项目其维护者的主要工作不是编写代码而是制定并维护贡献指南明确资源收录的标准如Star数、活跃度、许可证、实用性规定提交的格式。审核Pull Request对社区提交的资源进行审核确保其符合收录标准且描述准确。定期更新与整理删除已失效的链接合并重复的资源优化分类结构。 这种模式使得项目能够保持较高的时效性和质量。对于使用者来说在参考资源时也可以关注一下该资源链接对应的GitHub仓库的Star数量、最近提交时间等作为判断其活跃度和可靠性的辅助依据。3. 关键资源类别深度解析与使用指南3.1 客户端与浏览器扩展提升日常交互效率对于大多数非开发者的用户或者希望将ChatGPT深度融入工作流的开发者第三方客户端和浏览器扩展是首要关注点。第三方客户端通常提供以下增强功能本地存储与便携性将对话历史保存在本地数据库或文件中无需担心浏览器缓存丢失也方便在不同设备间同步通过自建同步服务或第三方网盘。高级会话管理支持文件夹分类、会话标签、批量导出/导入常见格式如JSON、Markdown。自定义模型参数除了官方Web UI提供的有限滑块一些客户端允许你更精细地调整temperature创造性、top_p核采样等参数甚至直接输入frequency_penalty频率惩罚等高级参数。多API密钥与端点支持方便管理多个OpenAI账户或者配置使用Azure OpenAI Service等兼容API的端点。Prompt模板与快捷指令内置或允许自定义常用的Prompt模板一键插入避免重复输入。浏览器扩展则聚焦于网页上下文全域助手在任意网页的文本框旁添加一个小图标点击即可唤出浮窗基于当前网页内容或选中的文本进行提问。内容处理一键总结、翻译、润色、扩写当前网页或选中的文本。与搜索引擎结合在Google、Bing搜索结果页旁边直接显示ChatGPT的答案或总结实现对比阅读。实操心得在选择客户端时我通常会优先考虑开源项目。原因有三一是安全可控可以审查代码二是遇到问题可以自己调试或提Issue三是功能迭代往往更贴近社区真实需求。安装浏览器扩展时务必从Chrome Web Store或Firefox Add-ons等官方商店下载谨慎对待来历不明的.crx文件以防恶意软件。3.2 开发工具与SDK构建应用的基石这是资源库中对开发者价值最高的部分。OpenAI官方的API虽然设计得相对简洁但在实际企业级或复杂应用开发中直接使用HTTP客户端调用会显得繁琐且需要处理很多边缘情况。社区SDK的价值主要体现在接口简化将HTTP请求、认证头Authorization、JSON序列化/反序列化等细节封装起来开发者只需关注业务逻辑对象。# 以Python为例使用官方最简方式 import openai client openai.OpenAI(api_keyyour-api-key) response client.chat.completions.create( modelgpt-3.5-turbo, messages[{role: user, content: Hello!}] ) print(response.choices[0].message.content)虽然官方Python库已经很好用但一些社区SDK可能会提供更符合特定框架如Django、FastAPI习惯的集成方式。增强功能自动重试与退避当遇到网络抖动或API速率限制429错误时自动进行指数退避重试提高请求成功率。异步支持提供原生的async/await接口方便在高并发场景如Web服务器下使用避免阻塞。流式响应处理简化处理Chat Completions API的流式输出streamTrue提供迭代器或回调函数方便实时显示AI生成的内容。请求/响应日志与监控方便地记录每次调用的耗时、token使用量便于后续的成本分析和性能优化。多语言支持虽然OpenAI官方提供了Python和Node.js库但对于使用Go、Rust、Java、C#等语言的团队社区维护的SDK是必不可少的。工具选型建议对于新项目我通常建议首先使用OpenAI官方维护的SDK如openaiPython包因为它更新最及时与API特性同步最快。如果官方SDK在某些方面如重试策略、异步支持不能满足需求再考虑功能更丰富的社区SDK。在选择社区SDK时重点考察其GitHub的Star数、最近提交时间、Issue的活跃度以及文档的完整性。3.3 开源项目与应用灵感来源与学习样板这一部分是资源库的“展示区”充满了社区的创造力。浏览这些项目不仅能找到直接可用的工具更能学习到如何将ChatGPT API与其他技术栈结合。常见的项目类型包括聊天机器人集成将ChatGPT接入Discord、Slack、Telegram、微信等主流通讯平台。这类项目的技术栈通常涉及对应平台的Bot SDK 一个后端服务用于接收消息、调用OpenAI API、返回响应。学习这类项目可以掌握Webhook、消息队列、会话状态管理等实用技能。知识库问答这是当前企业级应用的热点。项目通常包含以下模块文档处理将PDF、Word、TXT等格式的文档进行文本提取和分割。向量化与存储使用嵌入模型如text-embedding-ada-002将文本块转换为向量并存入向量数据库如Pinecone, Weaviate, Qdrant, 或开源的Chroma、Milvus。检索增强生成当用户提问时先从向量数据库中检索出最相关的文本片段然后将这些片段作为上下文与问题一起发送给ChatGPT生成答案。 这类项目是学习现代AI应用架构检索增强生成的绝佳案例。代码助手与解释器比GitHub Copilot更定制化的工具。例如一个可以分析整个代码库架构的助手或者一个能根据自然语言描述生成SQL查询、Shell命令的工具。创意与内容生成AI绘画提示词优化器、社交媒体文案生成器、视频脚本大纲生成器等。学习路径建议不要试图一开始就完全理解一个复杂项目的所有代码。我的方法是先看项目的README.md和docker-compose.yml如果有尝试在本地运行起来获得最直观的体验。然后从项目的入口文件如main.py,app.js开始顺着代码逻辑走一遍核心流程重点关注它如何组织代码、处理错误、管理配置。最后再深入研究其使用的关键库和技术。4. 基于资源库的典型应用搭建实战假设我们想利用资源库中的信息快速搭建一个简单的“命令行智能助手”。这个助手能回答技术问题、解释代码、甚至根据描述生成简单的脚本。我们将使用Python和OpenAI官方SDK。4.1 环境准备与依赖安装首先我们需要一个Python环境建议3.8和OpenAI的API密钥。创建项目目录并初始化虚拟环境这是保持环境干净的好习惯mkdir cli-ai-assistant cd cli-ai-assistant python -m venv venv # Windows: venv\Scripts\activate # Linux/Mac: source venv/bin/activate安装核心依赖pip install openai我们选择官方的openai库因为它稳定且功能完整。根据资源库的推荐我们可能还会看到langchain这样的高级框架但对于这个简单示例官方SDK足够了。设置API密钥永远不要将API密钥硬编码在代码中。推荐使用环境变量。# Linux/Mac export OPENAI_API_KEYyour-api-key-here # Windows (PowerShell) $env:OPENAI_API_KEYyour-api-key-here也可以在代码中通过os.getenv读取或者使用.env文件配合python-dotenv库。4.2 核心功能实现一个交互式对话循环我们将创建一个持续运行的循环接收用户输入调用ChatGPT API并流式打印出回复。import openai import os from typing import Generator # 初始化客户端会自动读取环境变量 OPENAI_API_KEY client openai.OpenAI() def chat_with_gpt(messages: list) - Generator[str, None, None]: 调用ChatGPT API并流式返回响应。 :param messages: 消息历史列表格式如 [{role: user, content: Hello}] :return: 生成器每次yield一个响应片段 try: stream client.chat.completions.create( modelgpt-3.5-turbo, # 可根据需要换成 gpt-4 等 messagesmessages, streamTrue, # 启用流式输出 temperature0.7, # 控制创造性0-2之间越高越随机 ) for chunk in stream: if chunk.choices[0].delta.content is not None: yield chunk.choices[0].delta.content except openai.APIConnectionError as e: yield f\n[网络连接错误: {e}]\n except openai.RateLimitError as e: yield f\n[速率超限请稍后重试: {e}]\n except openai.APIStatusError as e: yield f\n[API返回错误状态码: {e.status_code}]: {e}\n def main(): print(CLI AI助手已启动。输入您的问题输入 quit 或 exit 退出。) print(- * 50) # 初始化对话历史 conversation_history [] while True: try: user_input input(\nYou: ).strip() except (EOFError, KeyboardInterrupt): # 处理CtrlD, CtrlC print(\n\n再见) break if user_input.lower() in [quit, exit, q]: print(再见) break if not user_input: continue # 将用户输入加入历史 conversation_history.append({role: user, content: user_input}) print(Assistant: , end, flushTrue) full_response # 流式接收并打印回复 for chunk in chat_with_gpt(conversation_history): print(chunk, end, flushTrue) full_response chunk print() # 换行 # 将AI回复加入历史为多轮对话提供上下文 if full_response and not full_response.startswith(\n[): # 排除错误信息 conversation_history.append({role: assistant, content: full_response}) # 简单限制历史长度防止token超限和内存占用 # 更复杂的做法可以计算token数或者只保留最近N轮对话 if len(conversation_history) 10: # 保留系统提示如果有和最近几轮对话 # 这里简单地从前面删除最老的用户/助理对话对 # 假设第一条是用户消息 if len(conversation_history) 2: conversation_history.pop(0) # 移除最老的用户消息 conversation_history.pop(0) # 移除对应的助理消息 if __name__ __main__: main()代码关键点解析流式输出通过设置streamTrue和遍历响应块实现了打字机效果的实时输出用户体验更好尤其对于长回复。错误处理捕获了常见的API错误连接错误、速率限制、状态码错误并给出了友好的提示而不是让程序直接崩溃。对话历史管理conversation_history列表维护了完整的对话上下文这是实现多轮对话的基础。每次都将新的用户消息和AI回复追加进去。历史长度限制这是一个非常重要的实践。OpenAI的API有上下文窗口限制例如gpt-3.5-turbo通常是16K tokens。如果无限制地累积历史很快就会达到上限导致请求失败并且会增加不必要的token消耗成本。这里实现了一个简单的“滑动窗口”只保留最近的若干轮对话。更高级的实现可以精确计算token数使用tiktoken库并进行截断。4.3 功能增强添加系统指令与持久化上面的基础版本已经可用。我们可以从资源库中汲取灵感为其添加两个实用功能1. 添加系统指令System Prompt 系统指令用于设定AI助手的角色和行为准则。我们在对话历史初始化时加入它。def main(): system_prompt 你是一个专业的命令行技术助手擅长编程、系统运维和工具使用。 你的回答应该简洁、准确、实用优先提供可执行的命令或代码片段。 如果用户的问题不够清晰请礼貌地请求澄清。 conversation_history [{role: system, content: system_prompt}] # ... 其余循环代码不变系统消息只在对话开始时插入一次它会在整个会话中隐式地指导AI的行为。2. 会话持久化 每次重启程序对话历史就丢失了很不方便。我们可以将会话保存到本地JSON文件中。import json import os SESSION_FILE chat_history.json def load_history(): 从文件加载对话历史 if os.path.exists(SESSION_FILE): try: with open(SESSION_FILE, r, encodingutf-8) as f: return json.load(f) except (json.JSONDecodeError, IOError): print(警告历史文件损坏将创建新会话。) return [] # 如果文件不存在或损坏返回空列表 def save_history(history): 保存对话历史到文件 try: with open(SESSION_FILE, w, encodingutf-8) as f: # 确保只保存用户和助理的消息通常不保存系统提示 # 或者根据需求调整 json.dump(history, f, ensure_asciiFalse, indent2) except IOError: print(警告无法保存会话历史。) def main(): # 加载历史如果文件中有系统提示就沿用否则创建新的 conversation_history load_history() if not conversation_history or conversation_history[0][role] ! system: system_prompt ... # 你的系统提示 conversation_history [{role: system, content: system_prompt}] try: # ... 主循环代码 finally: # 程序退出时保存历史排除系统消息根据需求定 # 这里我们保存全部历史包括系统消息 save_history(conversation_history)这样每次启动助手它都能延续上一次的对话上下文体验更连贯。5. 常见问题、成本控制与高级技巧5.1 常见错误排查与解决在实际使用API和开发过程中你会遇到一些典型问题。问题现象可能原因解决方案AuthenticationError/Invalid API KeyAPI密钥错误、未设置或已失效。1. 检查环境变量OPENAI_API_KEY是否正确设置并已生效重启终端。2. 在OpenAI平台检查API密钥是否被删除或禁用。3. 确保代码中读取的是正确的密钥。RateLimitError超过每分钟/每天的请求次数或token限制。1. 免费用户或新账号有严格的速率限制考虑升级到付费计划。2. 在代码中实现指数退避重试逻辑。3. 降低请求频率或使用更高效的模型如gpt-3.5-turbo比gpt-4便宜且快。APIConnectionError/Timeout网络连接不稳定或服务器暂时不可用。1. 检查本地网络。2. 增加请求超时时间timeout参数。3. 实现重试机制。回复内容不符合预期胡言乱语、格式错误temperature参数过高导致随机性太大或Prompt指令不清晰。1. 降低temperature值如从0.8调到0.2。2. 在系统指令或用户消息中更明确地指定输出格式和要求。例如“请用JSON格式输出包含command和explanation两个字段。”上下文长度超限 (context_length_exceeded)累计的对话历史消息内容token数超过了模型的最大上下文限制。1. 实现上文提到的“历史长度限制”或“Token数截断”功能。2. 对于长文档可以总结之前对话的要点用总结代替完整历史。3. 换用上下文窗口更大的模型如gpt-4-32k但成本高。实操心得RateLimitError和上下文超限是初期最容易踩的坑。对于个人项目一个简单的退避重试策略非常有效遇到429错误时等待(2 ** retry_count)秒再重试并设置最大重试次数。对于上下文管理除了限制轮数更精确的做法是使用tiktoken库计算每条消息的token数并在接近上限时从历史中移除最早的非关键对话对。5.2 成本控制与优化策略使用OpenAI API是会产生费用的虽然gpt-3.5-turbo成本很低但用量大或使用gpt-4时仍需关注。理解计费方式费用按Token消耗计算。Token可以粗略理解为单词的一部分。输入Prompt和输出Completion都计费。不同模型每千Token的价格不同gpt-4比gpt-3.5-turbo贵很多。监控用量定期在OpenAI控制台的“Usage”页面查看消耗情况。可以设置预算提醒。代码级优化精简Prompt系统指令和用户问题要言简意赅避免冗长。在历史对话中可以考虑只保留最近几轮的核心内容而不是完整的对话。设置max_tokens在API调用中指定max_tokens参数限制AI回复的最大长度防止它生成过于冗长且昂贵的回答。缓存结果对于重复性、确定性高的问题例如“Python如何打开文件”可以将问答对缓存起来在内存或Redis中下次相同问题直接返回缓存结果避免重复调用API。使用更便宜的模型在不需要极高推理能力的场景如简单的文本格式化、分类优先使用gpt-3.5-turbo。对于创意写作、复杂推理再考虑gpt-4。架构级优化对于知识库问答类应用采用“检索增强生成”架构。即先从一个本地向量库中检索出最相关的几段信息只将这些信息作为上下文发送给AI。这极大地减少了每次请求需要处理的文本量Token数从而降低成本并提高速度。5.3 从资源库到自主探索jqueryscript/ChatGPT-Resources是一个完美的起点但技术生态日新月异。养成自主探索和评估的能力更重要。关注趋势在GitHub上可以用“chatgpt”、“openai”、“langchain”、“llm”等关键词搜索并按“Recently updated”排序发现最新的热门项目。评估项目质量看到一个感兴趣的项目不要急着git clone。先看Star数和Fork数是热度的初步指标。最近提交时间判断项目是否还在活跃维护。Issue和Pull Request看看有没有未解决的严重Bug以及社区互动是否活跃。README的质量文档是否清晰是否有快速上手的示例。许可证是否是宽松的开源许可证如MIT Apache-2.0允许商业使用。深入技术栈如果你对某个方向特别感兴趣例如向量数据库可以以资源库中提到的某个项目如Chroma为跳板去其官方文档和社区深入学习了解其原理、优缺点和替代方案。这个资源仓库就像一张精心绘制的地图为你标出了AI应用开发这片新大陆上的重要地标和宝藏点。而如何利用这些资源结合你自己的需求和创意去建造属于自己的“城市”才是真正激动人心的旅程。从我自己的经验来看最好的学习方式就是找到一个最小可行的想法然后利用像这样的资源库快速搭建原型在动手的过程中你会遇到具体的问题再去有针对性地搜索和学习这样的成长是最扎实的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2598897.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…