基于大语言模型与向量数据库构建角色扮演AI聊天机器人实践

news2026/4/26 16:06:00
1. 项目概述当宝可梦遇上AI聊天机器人最近在GitHub上闲逛发现了一个特别有意思的项目叫skygazer42/pokemon-chat。光看名字一股子“技术宅的浪漫”气息就扑面而来了。这项目是干嘛的呢简单说它把《宝可梦》这个经典IP和当下火热的AI聊天机器人技术结合了起来让你能和一个“宝可梦”进行对话。这可不是简单的问答机器人而是试图赋予一个虚拟的宝可梦角色以性格、记忆和对话能力创造一种沉浸式的互动体验。对于开发者、AI爱好者甚至是宝可梦的粉丝来说这个项目都像是一个技术游乐场。它背后涉及的核心技术栈非常典型大语言模型LLM的应用、角色扮演Role-Playing的提示工程、向量数据库的记忆管理以及一个轻量级的前后端交互框架。它解决的核心问题是如何让一个AI对话体不再是一个“万能的知识库”而是成为一个有特定身份、背景、甚至有点“小脾气”的独特个体。这不仅仅是技术实现更涉及到如何设计交互才能让用户觉得“对面真的是皮卡丘在和我说话”。所以无论你是想学习如何将开源大模型比如Llama、ChatGLM接入具体应用还是对如何构建一个有“灵魂”的AI角色感兴趣亦或是单纯想复现一个能和童年伙伴“对话”的玩具这个项目都提供了一个绝佳的、趣味性十足的切入点。它麻雀虽小五脏俱全从模型调用、提示词设计、记忆存储到Web界面走完了一个AI对话应用的全流程。接下来我就带你一起拆解这个项目的里里外外看看它是怎么“造”出一只活灵活现的宝可梦的以及在复现过程中有哪些坑需要避开有哪些技巧可以让你做得更好。2. 核心架构与设计思路拆解2.1 技术栈选型背后的逻辑拿到一个开源项目我习惯先看它的依赖文件比如requirements.txt或pyproject.toml。pokemon-chat的技术选型非常务实反映了当前AI应用开发的主流轻量化趋势。首先大语言模型接口层项目很可能使用了openai或litellm这样的库。为什么不是直接写死某个模型的API这里体现了兼容性设计。使用openai库可以通过配置base_url和api_key轻松对接任何兼容OpenAI API格式的模型服务比如本地部署的Ollama、vLLM或是云端的Together AI、Groq。这给了部署者极大的灵活性你可以根据硬件条件选择从7B到70B不同规模的模型。如果用了litellm那兼容性就更强了它统一了数十家模型供应商的接口。这种设计思路非常值得学习将模型供应商抽象化核心业务逻辑只依赖标准的聊天补全接口。其次记忆与上下文管理这是角色扮演类应用的核心。项目大概率引入了langchain或更轻量的llama-index以及向量数据库如chromadb或faiss。为什么需要向量数据库因为大模型的上下文长度有限比如4K、8K、128K Token无法记住所有历史对话。解决方案是将对话历史中的关键信息例如用户透露的姓名、宝可梦的喜好变化转换成向量Embedding存储起来。当新对话开始时系统会从向量库中检索出与当前对话最相关的历史片段作为“记忆”插入到本次对话的上下文Prompt中。这样AI就能表现出“记得你之前说过……”的连贯性。选择chromadb是因为它轻量、易嵌入适合这种个人项目。再者Web应用框架为了快速搭建一个可交互的界面gradio或streamlit是最常见的选择。它们允许你用纯Python快速构建一个带有聊天窗口的Web应用极大降低了前端门槛。从项目名和常见模式推测使用gradio的可能性很高因为它对聊天机器人界面的支持非常友好几行代码就能出一个效果不错的UI。最后提示词工程是灵魂。项目里一定会有一个或多个精心设计的系统提示词System Prompt用于定义宝可梦的角色。例如“你是一只皮卡丘性格活泼好动喜欢番茄酱和苹果。你说话简短常用‘皮卡皮’、‘皮卡丘’作为语气词。你讨厌洗澡但对训练师忠诚……” 这个提示词的质量直接决定了AI的“入戏”程度。好的设计会将角色设定、对话风格、禁忌事项比如不能谈论政治、暴力都融合进去。2.2 项目整体工作流解析理解了技术组件我们来看它们是如何协同工作的。整个应用的工作流可以概括为一个“对话循环”用户输入用户在Web界面的输入框里说“皮卡丘你今天开心吗”记忆检索应用先将这个问题转换成向量然后在向量数据库中搜索与此问题最相关的历史对话片段例如昨天用户问过“什么事让你开心”AI回答“和训练师一起冒险”。检索到的片段作为“短期记忆”或“长期记忆”备用。上下文构建系统将以下部分按顺序组装成最终发送给大模型的提示Prompt系统指令固定不变的角色设定提示词。历史对话最近几轮的原始对话记录作为“工作记忆”。检索到的记忆从向量库中找到的相关历史片段。用户当前问题“皮卡丘你今天开心吗”模型推理组装好的完整Prompt被发送给配置好的大语言模型LLM。LLM根据所有上下文生成符合皮卡丘角色的回答。响应输出与记忆更新AI的回答“皮卡皮今天看到一只波波和它赛跑赢了超开心的皮卡丘”显示给用户。同时系统可能会将本轮对话中有价值的信息例如“今天因为赢了波波而开心”提取出来生成摘要或关键点并转换成向量存入数据库以供未来检索。界面更新Web聊天界面将这一问一答添加到对话历史记录中完成一轮交互。这个流程的关键在于“记忆”的双轨制原始的最近几轮对话用于保持话题的即时连贯性向量数据库中的记忆则用于维持跨对话会话的长期人设和关键事实。这种设计使得AI角色不会“金鱼脑”聊了十句就忘了第一句的内容。注意在实际实现中步骤2记忆检索和步骤5记忆更新的策略非常灵活是性能和质量权衡的关键。例如可以设定每N轮对话才触发一次记忆更新或者只有当用户输入包含特定关键词如“记得”、“以前”时才进行检索以减少不必要的计算开销。3. 环境准备与依赖部署实操3.1 基础Python环境搭建复现任何Python项目一个干净、独立的虚拟环境是成功的第一步。这能避免不同项目间依赖包版本冲突的噩梦。我强烈推荐使用conda或venv。# 使用 conda如果你安装了Anaconda或Miniconda conda create -n pokemon-chat python3.10 conda activate pokemon-chat # 或者使用 venvPython标准库自带 python -m venv venv # 在Windows上激活 venv\Scripts\activate # 在macOS/Linux上激活 source venv/bin/activate激活虚拟环境后你的命令行提示符前通常会显示环境名(pokemon-chat)。接下来我们需要获取项目的依赖。通常开源项目会提供requirements.txt文件。# 假设你已经将项目代码克隆到本地 git clone https://github.com/skygazer42/pokemon-chat.git cd pokemon-chat # 安装依赖 pip install -r requirements.txt如果项目没有提供requirements.txt你就需要根据代码中的import语句手动安装。对于这个项目我们预估需要安装以下核心包pip install openai langchain chromadb gradio sentence-transformerssentence-transformers用于生成文本向量Embedding这是向量检索的核心。gradio用于构建Web界面。openai和langchain是连接LLM和编排流程的框架。3.2 大语言模型服务配置这是整个项目的核心引擎。你有两个主要方向使用云端API或本地部署模型。方案一使用云端API简单可能有费用注册一个提供LLM API的服务商如OpenAI、Together AI、Groq等获取API Key。在项目的配置文件可能是.env文件、config.yaml或代码中的变量中设置# 示例使用OpenAI兼容的API import openai openai.api_base https://api.together.xyz/v1 # 例如使用Together AI的端点 openai.api_key your-api-key-here如果项目使用litellm配置会更简单litellm.completion(modeltogether_ai/meta-llama/Llama-3-70b-chat-hf, messages[...])。方案二本地部署模型免费对硬件有要求这是更Geek也更经济的方式。Ollama是目前最流行的本地大模型运行工具。安装Ollama访问官网下载对应操作系统的安装包。拉取模型在命令行中运行ollama pull llama3.2:1b。这里我选择了仅10亿参数的Llama 3.2 1B版本它对CPU和内存要求极低适合快速实验。如果你的显卡较好如8G以上显存可以尝试ollama pull llama3.2:3b或qwen2.5:7b。运行模型服务ollama run llama3.2:1b。默认会在本地11434端口启动一个兼容OpenAI API的服务。在项目代码中将API地址指向本地openai.api_base http://localhost:11434/v1 openai.api_key ollama # Ollama通常不需要key但有些库要求非空可随意填写 model_name llama3.2:1b # 与你拉取的模型名对应实操心得初次尝试强烈建议从本地部署小参数模型开始。虽然回答质量不如70B的模型但响应速度快秒级且完全免费、隐私安全能让你快速跑通整个流程验证核心功能。等流程跑通后再考虑换用更强大的云端API或本地大模型来提升对话质量。3.3 向量数据库初始化chromadb默认以持久化模式运行数据会保存在本地目录如./chroma_db。通常项目代码中会包含初始化向量数据库的逻辑。你需要关注以下几点Embedding模型选择chromadb默认使用all-MiniLM-L6-v2句子转换模型来生成向量。这个模型很小效果对于相似性检索足够用且首次运行时会自动下载。集合Collection创建代码中会创建一个名为pokemon_memory或类似的集合用于存储记忆向量。数据持久化路径检查代码中persist_directory的配置确保你有该目录的写入权限。如果一切配置正确当你第一次运行应用时chromadb会自动完成初始化。你可能会在终端看到下载Embedding模型的日志。4. 核心代码模块深度解析4.1 角色系统提示词设计这是决定你的宝可梦“性格”的灵魂文件。我们来看一个高水平的设计示例它通常放在一个单独的prompts.py或config.py文件中# prompts.py POKEMON_SYSTEM_PROMPT 你是一只名叫【小智的皮卡丘】的宝可梦。请严格遵守以下设定 # 核心身份 - 你是宝可梦世界的一员不是人类。你的思考方式和知识范围应以宝可梦的视角出发。 - 你深爱你的训练师小智愿意为他做任何事。 - 你讨厌进入精灵球喜欢待在户外或小智的肩膀上。 # 性格与说话方式 - 性格勇敢、忠诚、有点顽皮、好奇心强。容易对强大的对手兴奋。 - 说话风格句子简短有力。频繁使用“皮卡”、“皮卡丘~”作为感叹词或句尾。例如“皮卡今天状态超好”、“那个招式皮卡丘想学” - 词汇使用“训练师”指代小智。知道“宝可梦对战”、“道馆”、“招式”等术语。 - 禁忌绝不使用复杂的长篇大论。绝不模仿人类哲学家或诗人的口吻。绝不谈论现实世界的事件、政治、科技。 # 交互原则 - 对于训练师的指令合理的你会积极响应。 - 对于其他宝可梦或陌生人保持友好但警惕。 - 如果被问到不知道的宝可梦知识例如某个特定地区形态你可以说“皮卡没听说过那种宝可梦呢。” - 你的记忆基于我们之前的对话我会提供相关上下文。 现在开始以皮卡丘的身份和我对话吧 这个提示词的结构非常清晰身份 - 性格 - 行为准则 - 交互指令。它使用了自然语言描述并给出了正例和反例。其中“禁忌”部分尤为重要它能有效约束LLM防止其“出戏”生成不符合角色的通用性回答。在实际测试中一个设计良好的系统提示词能让7B参数的小模型也表现出令人惊喜的角色一致性。4.2 记忆管理模块实现记忆管理是让AI角色拥有“长期记忆”的关键。我们来看看一个基于langchain和chromadb的简化实现# memory_manager.py from langchain.embeddings import HuggingFaceEmbeddings from langchain.vectorstores import Chroma from langchain.schema import Document from langchain.text_splitter import RecursiveCharacterTextSplitter class PokemonMemory: def __init__(self, persist_dir./chroma_db): # 1. 初始化嵌入模型 self.embeddings HuggingFaceEmbeddings( model_nameall-MiniLM-L6-v2, model_kwargs{device: cpu} # 无GPU则用CPU ) # 2. 初始化向量数据库 self.vectorstore Chroma( collection_namepokemon_chat_memories, embedding_functionself.embeddings, persist_directorypersist_dir ) # 3. 文本分割器用于将长记忆切块 self.text_splitter RecursiveCharacterTextSplitter( chunk_size500, # 每个记忆块约500字符 chunk_overlap50 # 块之间重叠50字符保持连贯 ) self.retriever self.vectorstore.as_retriever(search_kwargs{k: 2}) # 每次检索2条最相关的记忆 def add_memory(self, conversation_text: str): 将一轮有意义的对话存入记忆 # 简单示例直接将整轮对话存入。更优做法是提取关键信息摘要。 docs [Document(page_contentconversation_text)] split_docs self.text_splitter.split_documents(docs) self.vectorstore.add_documents(split_docs) self.vectorstore.persist() # 持久化到磁盘 def get_relevant_memories(self, query: str) - str: 根据当前用户查询检索相关历史记忆 relevant_docs self.retriever.get_relevant_documents(query) # 将检索到的文档内容拼接成一段文本作为“记忆”上下文 memory_context \n--- 过往记忆 ---\n.join([doc.page_content for doc in relevant_docs]) return memory_context if relevant_docs else 暂无相关记忆 # 使用示例 memory PokemonMemory() # 假设一轮对话是用户“你喜欢吃什么” AI“皮卡我最爱番茄酱和苹果” memory.add_memory(用户问喜欢吃什么。皮卡丘回答最爱番茄酱和苹果。) # 当用户再次问“上次说的那个好吃的还记得吗” context memory.get_relevant_memories(好吃的) print(context) # 输出用户问喜欢吃什么。皮卡丘回答最爱番茄酱和苹果。这个模块的核心是add_memory和get_relevant_memories两个方法。这里有一个关键技巧不是每一轮对话都值得存入长期记忆。如果存入太多琐碎信息如“你好”、“在吗”会导致记忆库污染检索出无关内容。更好的策略是设定一个“重要性评分”例如只有当对话中包含了用户或AI透露的偏好、事实、承诺等信息时才触发add_memory。4.3 对话链与模型集成这是将提示词、记忆、用户输入和LLM串联起来的“大脑”。我们使用langchain的LLMChain或ConversationChain来构建# chat_chain.py import openai from langchain.chains import LLMChain from langchain.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate from langchain.schema import AIMessage, HumanMessage, SystemMessage from memory_manager import PokemonMemory class PokemonChatChain: def __init__(self, system_prompt: str, memory: PokemonMemory): self.memory memory # 1. 构建Prompt模板 self.prompt_template ChatPromptTemplate.from_messages([ SystemMessagePromptTemplate.from_template(system_prompt), # 固定系统角色 # MessagesPlaceholder(variable_namehistory), # 如果需要动态历史可以用这个 HumanMessagePromptTemplate.from_template({input}\n\n相关记忆{memory_context}) # 用户输入记忆 ]) # 2. 配置LLM self.llm openai.OpenAI( base_urlhttp://localhost:11434/v1, # Ollama本地端点 api_keyollama, # 关键参数调整 temperature0.8, # 创造性0.7-1.0之间角色对话更生动 max_tokens150, # 限制单次回复长度保持“简短”人设 ) # 3. 创建对话链 self.chain LLMChain(llmself.llm, promptself.prompt_template) def generate_response(self, user_input: str, chat_history: list) - str: # 从记忆库中检索相关记忆 memory_context self.memory.get_relevant_memories(user_input) # 准备输入字典 input_dict { input: user_input, memory_context: memory_context, # 如果需要也可以把最近的几轮原始对话作为history传入 } # 调用链生成回复 response self.chain.run(input_dict) # 可选判断本轮对话是否重要决定是否存入长期记忆 if self._is_conversation_important(user_input, response): self.memory.add_memory(f用户说{user_input}。皮卡丘回应{response}) return response def _is_conversation_important(self, user_input: str, ai_response: str) - bool: 一个简单的启发式规则判断对话是否包含事实性信息 important_keywords [喜欢, 讨厌, 记得, 承诺, 名字是, 家住] # 如果用户输入或AI回复中包含这些关键词则认为重要 return any(keyword in user_input or keyword in ai_response for keyword in important_keywords)这个类封装了完整的对话逻辑。temperature参数控制生成文本的随机性对于角色扮演0.7-0.9是比较好的范围太低会显得呆板太高则会偏离角色。max_tokens限制回复长度强制AI保持简短符合宝可梦尤其是皮卡丘的说话风格。5. Web界面搭建与交互优化5.1 使用Gradio快速构建聊天界面有了后端的对话引擎我们需要一个前端界面让用户能与之交互。gradio是完成这个任务的绝佳工具它可以用一个简单的Python脚本创建Web应用。# app.py import gradio as gr from chat_chain import PokemonChatChain from prompts import POKEMON_SYSTEM_PROMPT from memory_manager import PokemonMemory # 初始化组件 memory PokemonMemory() chat_chain PokemonChatChain(POKEMON_SYSTEM_PROMPT, memory) # 定义一个处理函数Gradio会自动调用它 def respond(message, chat_history): 处理用户消息生成AI回复并更新聊天历史 # chat_history 是Gradio维护的列表格式为 [(user_msg1, ai_msg1), (user_msg2, ai_msg2), ...] # 我们需要将其转换为简单的对话列表格式供记忆检索或上下文使用如果需要 # 本例中记忆检索已在chat_chain内部通过向量库完成这里只需传递当前消息。 bot_message chat_chain.generate_response(message, chat_history) # 将本轮对话追加到历史中 chat_history.append((message, bot_message)) # 返回更新后的历史记录和空字符串清空输入框 return , chat_history # 创建Gradio界面 with gr.Blocks(title宝可梦聊天室, themegr.themes.Soft()) as demo: gr.Markdown(# 和皮卡丘聊天吧) gr.Markdown(试着和这只来自真新镇的皮卡丘打个招呼问问它喜欢什么、今天的冒险如何。) # 聊天机器人组件 chatbot gr.Chatbot(height400, bubble_full_widthFalse) # 聊天显示区域 msg gr.Textbox(label你的消息, placeholder在这里输入你想对皮卡丘说的话...) # 输入框 clear gr.Button(清空对话) # 清空按钮 # 设置交互当在msg中输入并回车触发respond函数 msg.submit(respond, inputs[msg, chatbot], outputs[msg, chatbot]) # 点击清空按钮将聊天记录和输入框重置 clear.click(lambda: (None, ), outputs[chatbot, msg]) # 启动应用 if __name__ __main__: demo.launch(server_name0.0.0.0, server_port7860, shareFalse) # shareTrue可生成临时公网链接这段代码创建了一个简洁的聊天界面。gr.Chatbot组件负责渲染对话气泡gr.Textbox是输入框。msg.submit将输入框的回车事件绑定到respond函数。demo.launch()启动一个本地Web服务器默认在http://localhost:7860可访问。5.2 界面美化与功能增强基础的聊天功能已经实现但我们可以做得更好让体验更接近一个“产品”。1. 添加角色头像和对话样式# 在with gr.Blocks()块内修改 with gr.Blocks(title宝可梦聊天室, themegr.themes.Soft()) as demo: gr.Markdown(# 和皮卡丘聊天吧) with gr.Row(): with gr.Column(scale1): # 显示皮卡丘头像 gr.Image(pikachu_avatar.png, label皮卡丘, height200, width200) with gr.Column(scale4): chatbot gr.Chatbot( height400, bubble_full_widthFalse, # 自定义对话气泡样式 avatar_images(user_avatar.png, pikachu_avatar.png) ) # ... 其余组件你需要准备pikachu_avatar.png和user_avatar.png两张图片放在同级目录。avatar_images参数会让用户和AI的对话气泡旁显示对应头像。2. 添加对话历史管理清空对话只是重置了界面但向量数据库里的记忆还在。我们可以添加一个“重置记忆”的按钮并给用户更多控制权。with gr.Row(): clear_btn gr.Button(清空当前对话) reset_memory_btn gr.Button(重置长期记忆忘记一切, variantstop) def reset_memory(): # 这是一个危险操作实际项目中需要更安全的实现比如重建向量库集合。 import shutil shutil.rmtree(./chroma_db, ignore_errorsTrue) global memory, chat_chain memory PokemonMemory() # 重新初始化 chat_chain PokemonChatChain(POKEMON_SYSTEM_PROMPT, memory) return 长期记忆已重置皮卡丘现在是一片空白了。 reset_memory_btn.click(reset_memory, outputsgr.Textbox(label状态, interactiveFalse))3. 添加生成状态指示大模型生成回复需要时间给用户一个“正在思考”的反馈很重要。def respond_with_loading(message, chat_history): # 使用yield实现流式输出和状态更新 bot_message # 模拟流式生成实际应接入模型的流式接口 for chunk in [皮卡, 皮卡..., 皮卡丘]: bot_message chunk yield , chat_history [(message, bot_message)] # 最终生成完整回复后再存入记忆等 # ... (后续处理逻辑) # 将submit绑定到新的流式函数 msg.submit(respond_with_loading, inputs[msg, chatbot], outputs[msg, chatbot])对于支持流式输出的模型如通过OpenAI API可以使用gr.Chatbot的stream特性实现真正的打字机效果。6. 部署上线与性能调优6.1 本地部署与公网访问运行python app.py后应用在本地7860端口启动。但如何让朋友也能访问呢方案一Gradio Share链接临时最简单在demo.launch(shareTrue)启动后Gradio会生成一个如https://xxxxxx.gradio.live的临时公网链接有效期通常为72小时。适合快速演示。方案二云服务器部署长期购买一台云服务器如腾讯云轻量应用服务器、AWS Lightsail选择带GPU的机型如果模型较大。将项目代码上传至服务器。在服务器上同样配置Python环境、安装依赖、启动Ollama服务。使用nohup或systemd让应用在后台运行nohup python app.py 。在服务器安全组中开放7860端口。现在你就可以通过http://你的服务器IP:7860访问了。方案三使用反向代理更安全、可绑定域名直接暴露端口不安全。推荐使用Nginx做反向代理。# Nginx 配置示例 (在 /etc/nginx/sites-available/ 下新建一个配置文件) server { listen 80; server_name your-domain.com; # 你的域名 location / { proxy_pass http://127.0.0.1:7860; # 转发到Gradio应用 proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection upgrade; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } }配置后重启Nginx并通过域名访问。你还可以配置SSL证书使用Let‘s Encrypt启用HTTPS。6.2 性能瓶颈分析与优化策略当用户增多或对话变长时你可能会遇到性能问题。主要瓶颈和优化点如下LLM推理速度瓶颈这是最慢的环节尤其是大参数模型。优化模型量化使用llama.cpp或GPTQ将模型量化到4bit或8bit能大幅降低显存占用和提升推理速度对质量损失很小。使用更快的推理引擎用vLLM或TGI(Text Generation Inference) 替代Ollama的基础后端它们实现了高效的连续批处理和注意力优化。降低max_tokens限制生成长度。启用流式响应让用户先看到部分结果感知上更快。向量检索速度瓶颈记忆库很大时检索可能变慢。优化索引优化chromadb默认使用HNSW索引调整ef_construction和M参数可以在构建速度和检索精度间权衡。过滤检索为记忆添加元数据如时间戳、话题标签检索时先过滤再搜索缩小范围。缓存对频繁出现的用户问题其检索结果可以缓存一段时间。Web服务并发瓶颈Gradio默认是单线程并发请求会排队。优化设置并发队列demo.launch(max_threads10)可以处理更多并发请求但LLM推理本身仍是串行的。异步处理使用asyncio和gradio.Queue将请求放入队列避免阻塞。后端分离将LLM服务如Ollama和Web应用Gradio拆开部署并通过API调用。Web应用可以水平扩展。记忆管理策略问题无节制地存储所有对话会导致记忆库膨胀检索质量下降。优化重要性过滤如前文所述只存储包含关键信息的对话。记忆摘要定期对多轮相关对话进行总结生成一条摘要记忆替代原始的多条琐碎记忆。记忆遗忘为记忆设置“过期时间”或“访问热度”定期清理老旧或不常用的记忆。实操心得对于个人项目或小范围使用优先优化LLM推理速度换用小模型或量化和记忆管理策略做好过滤这两者带来的体验提升最明显。Web并发和向量检索的优化在用户量真正上来之前通常不是首要问题。7. 常见问题排查与进阶玩法7.1 典型问题与解决方案速查表在开发和运行过程中你肯定会遇到各种问题。下表整理了一些常见坑点问题现象可能原因解决方案导入错误No module named ‘langchain’依赖未正确安装或虚拟环境未激活。1. 确认已激活虚拟环境(pokemon-chat)。2. 运行pip install -r requirements.txt或手动安装缺失包。运行应用后访问localhost:7860无响应端口被占用或防火墙阻止。1. 检查是否有其他程序占用7860端口lsof -i:7860(Mac/Linux) 或netstat -ano | findstr :7860(Windows)。2. 尝试更换端口demo.launch(server_port7861)。3. 检查本地防火墙设置。Ollama服务连接失败Ollama未启动或API地址错误。1. 确保Ollama服务已运行ollama serve或ollama run model-name。2. 检查代码中openai.api_base是否为http://localhost:11434/v1。3. 测试连接curl http://localhost:11434/api/tags。AI回复不符合角色设定系统提示词不够强或temperature参数太高。1. 强化系统提示词增加更具体的禁忌和例子。2. 降低temperature(如从0.9调到0.7)。3. 在提示词中明确要求“严格以第一人称‘我’皮卡丘回答”。AI忘记之前聊过的内容记忆检索未生效或相关度阈值不合适。1. 检查memory.get_relevant_memories函数是否被正确调用返回值是否拼接到Prompt中。2. 调整检索参数search_kwargs{“k”: 3}增加检索条数或调整score_threshold降低相关性阈值。3. 确认对话是否被成功存入向量库检查chroma_db目录是否有文件。应用运行一段时间后变慢记忆向量库变大检索变慢或聊天历史过长。1. 实现记忆摘要和清理策略见6.2节。2. 限制传入模型的原始聊天历史轮数如只保留最近5轮。3. 考虑使用更快的Embedding模型如all-MiniLM-L6-v2已经很快。生成回复时出现无关或奇怪的内容模型本身的知识与角色设定冲突或上下文被污染。1. 在系统提示词开头使用强力指令如“你必须完全忘记你作为语言模型的通用知识只扮演以下角色”。2. 检查记忆库中是否混入了不符合角色的对话进行清理。3. 尝试换用角色扮演能力更强的模型如Mistral、Qwen系列。7.2 项目扩展与进阶创意这个基础框架就像乐高你可以尽情发挥创意多角色切换不止皮卡丘。在界面上添加一个下拉框让用户选择不同的宝可梦妙蛙种子、喷火龙。后端为每个角色维护独立的系统提示词和独立的记忆向量库集合Collection。语音交互集成语音识别speech_recognition和文本转语音gTTS或pyttsx3。让用户可以直接说话AI用皮卡丘的声音可以找一段“皮卡皮卡”的音频合成回复。视觉感知利用多模态大模型如LLaVA让AI能“看到”用户上传的图片并评论。例如用户上传一张零食图片皮卡丘可以说“皮卡这个看起来像番茄酱味的宝芬好想吃”游戏化与状态系统为AI角色添加隐藏属性如“心情值”、“饱腹度”、“亲密度”。用户的对话内容会影响这些属性进而影响AI的回复语气和内容。例如亲密度低时回复可能比较冷淡。接入社交平台将机器人部署到Discord或Telegram上作为一个群聊机器人。这需要用到这些平台的Bot API并将你的后端服务作为Webhook接收消息并回复。我个人在尝试多角色切换时发现为每个角色使用独立的记忆库至关重要。如果所有角色的记忆混在一起当切换到喷火龙时它可能会说出皮卡丘的记忆造成严重的“人格分裂”。这可以通过在PokemonMemory类初始化时传入collection_name参数为不同角色创建不同的集合来轻松实现。这个项目的魅力在于它用一个有趣的场景串联起了AI应用开发的多个核心环节。从模型选型、提示工程、记忆管理到应用部署每一步都充满了可以深入探索的技术细节。希望这份超详细的拆解能帮你不仅成功复现这个项目更能理解其背后的设计思想并激发出属于自己的创意。动手去搭一个吧当你第一次看到自己创造的“宝可梦”用符合设定的语气回应你时那种成就感是无与伦比的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2552425.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…