Cosmos-Reason1-7B智能体(Agent)开发入门:构建你的第一个AI助手
Cosmos-Reason1-7B智能体Agent开发入门构建你的第一个AI助手你是不是也好奇那些能帮你查天气、订行程、甚至写代码的AI助手到底是怎么做出来的感觉它们背后有一套复杂的逻辑离我们普通人很远。其实没那么神秘。今天我就带你用Cosmos-Reason1-7B这个模型从零开始动手搭建一个你自己的AI智能体。我们不做复杂的理论铺垫直接上手目标就是让你在半小时内看到一个能理解你意图、调用工具、并给出建议的“天气出行小助手”活过来。整个过程就像搭积木我们会一块一块地拼起来先让模型学会“思考”和“规划”再教它使用“工具”比如查天气最后让它学会“记忆”对话历史。听起来是不是挺有意思那咱们就开始吧。1. 动手之前先认识你的“积木块”在开始敲代码之前咱们得先搞清楚几个核心概念。别担心我用大白话给你解释保证一听就懂。智能体Agent是什么你可以把它想象成一个有“脑子”、有“手”、还有“记事本”的虚拟助手。脑子模型就是Cosmos-Reason1-7B它负责理解你说的话思考该怎么做。手工具比如一个查询天气的接口、一个计算器Agent可以用这些“手”去执行具体操作。记事本记忆用来记住你们之前的对话这样它就不会问重复的问题回答也更连贯。我们这次要做的就是教会这个“脑子”如何指挥“手”去干活并且把重要的东西记在“记事本”上。为什么选Cosmos-Reason1-7B简单说它特别擅长“推理”和“规划”。普通的聊天模型可能只会接着你的话往下说但Cosmos-Reason1-7B能像人一样先在心里把任务拆解成几步“用户要出行建议那我得先知道他要去哪、什么时候去。好第一步问他目的地。第二步查那里的天气。第三步根据天气给建议。” 这种“分步骤思考”的能力正是构建智能体的核心。2. 环境准备给你的助手安个家我们得先找个地方把模型跑起来。这里我推荐使用星图GPU平台它预置了环境我们不用操心复杂的安装和配置能快速进入正题。2.1 获取模型与基础环境首先你需要有一个可以运行模型的Python环境3.8以上版本并且安装一些必要的库。打开你的终端或命令行执行下面的命令# 安装核心的模型加载和对话库 pip install transformers torch # 安装一个帮助我们构建Agent的轻量级框架这里以LangChain为例因为它生态丰富例子多 pip install langchain langchain-community # 安装requests库用于后面调用天气API pip install requests接下来我们需要获取Cosmos-Reason1-7B模型。你可以在ModelScope或Hugging Face等模型社区找到它。这里假设我们从ModelScope加载from transformers import AutoTokenizer, AutoModelForCausalLM model_name AI-ModelScope/Cosmos-Reason1-7B tokenizer AutoTokenizer.from_pretrained(model_name, trust_remote_codeTrue) model AutoModelForCausalLM.from_pretrained(model_name, trust_remote_codeTrue, torch_dtypetorch.float16, device_mapauto)这段代码会把模型和分词器下载到本地。torch.float16表示用半精度加载节省显存device_map“auto”会自动把模型分配到可用的GPU上。2.2 快速验证模型环境搭好了我们先跟模型打个招呼确保它能正常工作。def simple_chat(prompt): inputs tokenizer(prompt, return_tensorspt).to(model.device) outputs model.generate(**inputs, max_new_tokens200) response tokenizer.decode(outputs[0], skip_special_tokensTrue) # 只截取模型生成的部分去掉我们的提问 return response[len(prompt):] test_prompt 你好请介绍一下你自己。 print(simple_chat(test_prompt))如果运行后能看到一段连贯的自我介绍恭喜你模型的“脑子”已经准备就绪了3. 核心实战打造天气出行助手现在进入最有趣的部分——赋予这个“脑子”行动能力。我们将分三步走造工具、定规则、串流程。3.1 第一步制造“工具手”工具就是Agent能调用的外部函数。我们先造一个最简单的——模拟查询天气。import requests import json def get_weather(city: str) - str: 模拟获取城市天气信息。 参数: city: 城市名例如“北京” 返回: 一个描述天气的字符串 # 这里为了演示我们模拟一个返回结果。 # 在实际应用中你可以替换成真正的天气API比如和风天气、OpenWeatherMap等。 weather_data { 北京: 晴朗温度25℃微风紫外线强度中等适合户外活动。, 上海: 多云温度28℃东南风3级湿度较高建议携带雨具。, 广州: 雷阵雨温度30℃南风4级有短时强降水出行请注意安全。, 深圳: 阵雨转多云温度29℃湿度大体感闷热。 } if city in weather_data: return f{city}的天气情况是{weather_data[city]} else: return f抱歉暂时没有{city}的天气信息。 # 测试一下工具 print(get_weather(北京))运行一下你会看到输出了“北京的天气情况是...”。看第一只“手”做好了。3.2 第二步编写“思考指南”我们需要告诉模型什么时候该思考什么时候该用工具。这通过编写“提示词”来实现。提示词就像给模型的工作说明书。from langchain.prompts import PromptTemplate from langchain.chains import LLMChain from langchain.llms import HuggingFacePipeline from transformers import pipeline # 首先将我们的模型包装成LangChain能用的格式 hf_pipeline pipeline( text-generation, modelmodel, tokenizertokenizer, max_new_tokens200, temperature0.1, # 温度调低让输出更确定、更可靠 ) llm HuggingFacePipeline(pipelinehf_pipeline) # 定义核心的Agent提示词模板 agent_prompt_template 你是一个乐于助人的出行助手。你的任务是理解用户的需求并通过使用工具来获取信息最终给出贴心的建议。 你可以使用的工具 1. get_weather(city: str)查询指定城市的天气详情。 请严格按照以下格式思考和回应 思考我需要先理解用户想做什么然后决定是否需要使用工具以及使用哪个工具。 行动如果需要使用工具就在这里写出工具调用格式为 工具名: 参数。例如get_weather: 北京。如果不需要工具就写 无。 观察这是工具返回的结果或者你对当前情况的分析。 最终答案在获得所有必要信息后给用户一个完整、友好的回答。 现在开始对话 用户{user_input} 历史对话{chat_history} 思考{agent_scratchpad} PROMPT PromptTemplate( input_variables[user_input, chat_history, agent_scratchpad], templateagent_prompt_template ) # 创建一个链将提示词和模型结合起来 agent_chain LLMChain(llmllm, promptPROMPT)这段代码是核心中的核心。我们定义了一个严格的“思考-行动-观察”格式强迫模型按照这个逻辑来工作。agent_scratchpad这个变量就是用来记录它每一步的思考和工具返回结果的。3.3 第三步组装并运行你的Agent现在我们把工具、提示词和记忆系统组装起来并写一个主循环让它跑起来。from langchain.memory import ConversationBufferMemory # 初始化记忆让Agent能记住对话历史 memory ConversationBufferMemory(memory_keychat_history, input_keyuser_input) # 一个简单的工具调用解析和执行函数 def parse_and_execute_action(action_str): if action_str.strip() 无: return 无需使用工具。 if action_str.startswith(get_weather:): city action_str.split(:)[1].strip() return get_weather(city) else: return f未知的行动指令: {action_str} # 主对话函数 def run_agent_conversation(): print(天气出行助手已启动输入‘退出’来结束对话。) chat_history while True: user_input input(\n你) if user_input.lower() in [退出, exit, quit]: print(助手再见祝你旅途愉快) break # 初始化思考过程 scratchpad 思考 max_steps 5 # 防止无限循环 final_answer None for step in range(max_steps): # 生成模型响应包含思考和行动 full_response agent_chain.run({ user_input: user_input, chat_history: chat_history, agent_scratchpad: scratchpad }) # 解析响应提取“行动”部分 lines full_response.split(\n) action None for line in lines: if line.startswith(行动): action line[3:].strip() # 去掉“行动” break # 执行工具调用获取观察结果 observation parse_and_execute_action(action) scratchpad f\n{full_response}\n观察{observation} # 检查响应中是否有“最终答案” for line in lines: if line.startswith(最终答案): final_answer line[5:].strip() # 去掉“最终答案” break if final_answer: print(f助手{final_answer}) # 将本轮对话存入历史 memory.save_context({user_input: user_input}, {output: final_answer}) chat_history memory.load_memory_variables({})[chat_history] break if not final_answer: print(助手我好像有点混乱了我们重新开始吧。) # 运行助手 if __name__ __main__: run_agent_conversation()保存并运行这个完整的脚本。你会看到一个命令行交互界面。试着输入“我明天想去北京天气怎么样” 看看你的Agent是如何一步步思考、调用天气工具并最终给你建议的。4. 效果初探与优化方向运行起来后你可能会发现它有时候能完美工作有时候又会“犯傻”。这很正常我们的第一个版本还很基础。这里有几个你马上可以尝试的优化点增强工具能力把模拟天气函数换成真实的天气API让它提供更精确的温度、湿度、风速、未来几小时预报等信息。改进提示词在提示词里加入更多例子教模型在不同场景下该如何反应。比如用户说“北京和上海哪个天气好”你应该教它分别查询两个城市再比较。增加更多工具比如加入一个suggest_activity(weather)工具根据天气情况晴朗、下雨推荐室内或室外活动。使用更成熟的框架我们上面用的是一个非常简化的自制循环。在实际项目中我强烈建议使用 LangChain 或 LlamaIndex 等框架内置的AgentExecutor它们已经帮你处理好了复杂的循环、错误处理和工具调用逻辑更稳定也更强大。5. 总结走完这一趟你应该已经感受到了构建一个基础智能体并没有想象中那么难。关键就是把“模型思考”、“工具调用”和“任务规划”这几个环节打通。我们今天做的这个“天气出行助手”虽然简单但已经包含了智能体最核心的骨架。你完全可以在这个基础上发挥想象力添加更多工具比如查询航班、推荐餐厅、翻译语言把它打造成你的专属多功能助手。动手试试吧从修改提示词、增加一个新工具开始。你会发现看着自己创造的AI从笨拙到逐渐聪明起来这个过程本身就充满了乐趣和成就感。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2429818.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!