langchain AI应用框架研究【开发部署-篇四】
上篇本篇主要简单了解一下开发不部署。后面继续langgraph14 开发14.1 LangSmith Studio在本地使用 LangChain 构建智能体时如果能可视化内部运作、实时交互并随时调试那会非常有帮助。LangSmith Studio就是一个免费的可视化界面专门用于在本地机器上开发和测试你的 LangChain 智能体。Studio 会连接到你本地运行的智能体向你展示智能体采取的每一步操作包括发送给模型的提示词、工具调用及其结果以及最终的输出。你可以测试不同的输入、检查中间状态并且无需编写额外代码或进行部署就能迭代优化智能体的行为。本页面将介绍如何在本地 LangChain 智能体中设置 Studio14.1.1 前置条件在开始之前请确保您已准备好以下内容LangSmith 账户请在 smith.langchain.com 免费注册或登录。LangSmith API 密钥请参照“创建 API 密钥”指南进行操作。如果您不希望数据被追踪至 LangSmith请在应用程序的.env文件中设置LANGSMITH_TRACINGfalse。禁用追踪后所有数据都将保留在您的本地服务器上不会外传14.1.2 设置本地agentServer1. 安装 LangGraph CLILangGraph CLI 提供了一个本地开发服务器也叫 Agent Server它的作用是将你的智能体连接到 Studio# Python 3.11 is required. pip install --upgrade langgraph-cli[inmem]2 准备agent如果您已经有了一个 LangChain 智能体可以直接使用它。本示例使用的是一个简单的邮件智能体3 设置环境变量Studio 需要一个LangSmith API 密钥才能连接你的本地智能体。请在项目的根目录下创建一个.env文件并将你在 LangSmith 获取的 API 密钥添加进去4 创建LangGraph配置文件LangGraph CLI 使用一个配置文件来定位你的智能体并管理依赖项。请在你的应用目录中创建一个langgraph.json文件{ dependencies: [.], graphs: { agent: ./src/agent.py:agent }, env: .env }create_agent函数会自动返回一个编译好的 LangGraph 图而这正是配置文件中graphs键所期望的内容5. 安装依赖#我使用的是本地ollama部署这里根据具体情况安装 pip install langchain langchain-openai6 在studio里面查看agent#启动开发服务将agent连接到studio langgraph devSafari 会拦截指向本地主机localhost的连接导致无法访问 Studio。为了解决这个问题请在运行上述命令时添加--tunnel参数以便通过安全隧道访问 Studio服务器运行后你的智能体即可通过以下两种方式访问API 接口http://127.0.0.1:2024Studio 用户界面 (UI)https://smith.langchain.com/studio/?baseUrlhttp://127.0.0.1:202415 使用langSmith部署
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2524460.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!