黑马LangChain4j - AI志愿填报顾问
认识AIAI发展史AI,人工智能, 使机器能够像人类一样思考、学习和解决问题的技术。PS: 本节课主要讲了一些机器学习, 深度学习相关的概念知识, 可以先去看一下鱼书。鱼书真的手把手教会新手深度学习相关的所有知识。AI市场分布AI应用开发就是框起来部分需要做的事。大模型部署本机部署_ollama (自己部署大模型)因为在本机部署需要安装Python解释器、安装依赖、手动下载模型、编写脚本等工作, 所以有大牛们让我们更快上手, 帮我们做了Ollama、LM、Studio等工具, 我们只需要在自己的电脑上安装这些工具, 再执行一些命令, 大模型即可套在我们自己的电脑上, 本次课程中借助Ollama来部署。Ollama是一种用于快速下载、部署、管理大模型的工具, 官网地址: https://ollama.com首页即可选择操作系统对应的Ollama, 点击下载, 黑马官方给的资料包里也有红色方框里的内容是ollama下载并允许模型的命令打开cmd命令行执行我们不会在命令行里面跑ollama, ollama给我们提供了API, 借助Apifox, 由于我们访问大模型需要给大模型一些参数, 所以是POST请求方式阿里云百炼 (他人部署大模型)大模型调用常见参数使用大模型需要传递的参数, 在百炼平台给出了详细说明, 并且不同平台的核心参数, 基本都一致使用大模型需要传递的参数, 在访问大模型时都需要在请求体中以json的形式进行传递响应数据在与大模型交互的过程中, 大模型响应的数据是json格式的数据LangChain4j (正片开始)会话功能快速入门LangChain4j官网1. 引入LangChain4j依赖!--langchain4j依赖-- dependency groupIddev.langchain4j/groupId artifactIdlangchain4j-open-ai/artifactId version1.0.1/version /dependency2. 构建OpenAiChatModel对象3. 调用chat方法与大模型交互API_KEY建议配置在系统环境变量中, 并且重启idea, 让idea扫描系统环境变量public class App { public static void main(String[] args) { // 2.构建OpenAiChatModel对象 OpenAiChatModel model OpenAiChatModel.builder() .baseUrl(https://dashscope.aliyuncs.com/compatible-mode/v1) .apiKey(System.getenv(API_KEY)) .modelName(qwen-plus) .build(); // 3.调用chat方法, 交互 String result model.chat(我帅不帅?); System.out.println(result); } }加上输出日志的依赖logback, 并设置logRequests和logResponses!--logback依赖-- dependency groupIdch.qos.logback/groupId artifactIdlogback-classic/artifactId version1.5.18/version /dependency配置完成过后的输出如下:Spring整合LangChain4j1. 构建springboot项目勾选Spring Web依赖2. 引入起步依赖!--langchain4j起步依赖-- dependency groupIddev.langchain4j/groupId artifactIdlangchain4j-open-ai-spring-boot-starter/artifactId version1.0.1-beta6/version /dependency3. application.yml中配置大模型langchain4j: open-ai: chat-model: base-url: https://dashscope.aliyuncs.com/compatible-mode/v1 api-key: ${API_KEY} model-name: qwen-plus4. 开发接口, 调用大模型RestController public class ChatController { Autowired private OpenAiChatModel model; RequestMapping(/chat) public String chat(String message){ // 浏览器传递的用户问题 String result model.chat(message); return result; } }运行启动类, 访问localhost:8080即可访问大模型如果要查看请求和响应的详细信息, 需要修改配置文件日志输出如下:AiServices之前访问大模型是借助OpenAiChatModel的chat方法访问的, 这种方法在实际开发中并不是很常用, 因为要自己完成的代码太复杂, 所以LangChain4j提供了AiServices工具类, 封装了有关model对象和其他功能的操作1. 引入依赖!--AiServices相关的依赖-- dependency groupIddev.langchain4j/groupId artifactIdlangchain4j-spring-boot-starter/artifactId version1.0.1-beta6/version /dependency2. 声明接口public interface ConsultantService { // 用于聊天的方法 public String chat(String message); }3. 使用AiService为接口创建代理对象Configuration public class CommonConfig { Autowired private OpenAiChatModel model; Bean public ConsultantService consultantService(){ ConsultantService consultantService AiServices.builder(ConsultantService.class) .chatModel(model) .build(); return consultantService; } }4. 在Controller中注入并使用RestController public class ChatController { Autowired private ConsultantService consultantService; RequestMapping(/chat) public String chat(String message){ String result consultantService.chat(message); return result; } /*Autowired private OpenAiChatModel model; RequestMapping(/chat) public String chat(String message){ // 浏览器传递的用户问题 String result model.chat(message); return result; }*/ }由于上面这种方式还是很复杂, LangChain4j提供AiServices的声明式使用, 需要为哪个接口创建代理对象, 只需要在接口上添加一个AiService注解, LangChain4j会自动调用AiServices工具类帮我们创建该接口的代理对象, 并注入到IOC容器里面让我们使用AiService( wiringMode AiServiceWiringMode.EXPLICIT, // 手动装配 chatModel openAiChatModel // 指定模型 ) public interface ConsultantService { // 用于聊天的方法 public String chat(String message); }下面这种是自动装配的方法AiService public interface ConsultantService { // 用于聊天的方法 public String chat(String message); }流式调用之前调用的方式都是阻塞式调用, 这节课学习用LangChain4j发起流式调用1. 引入依赖!--引入流式调用相关的依赖-- dependency groupIdorg.springframework.boot/groupId artifactIdspring-boot-starter-webflux/artifactId /dependency dependency groupIddev.langchain4j/groupId artifactIdlangchain4j-reactor/artifactId version1.0.1-beta6/version /dependency2. 配置流式模型对象3. 切换接口中方法的返回值类型4. 修改Controller中的代码下面是运行结果:下面解决乱码问题: 只需要在ChatController中添加这一部分内容下面是运行结果:引入前端index.html后出现如下界面不要慌只需要按照下面步骤操作, 即可得到和老师一样的页面:消息注解AI志愿填报顾问只能回答我们志愿填报相关的内容, 我们不能让它回答除此之外的内容, 所以需要给它设置消息注解SystemMessageUserMessageSystemMessage用法在接口方法上直接写系统消息, 适用于系统消息不多的情况如果系统消息太多, 不方便写在上面的地方, 我们写在外部文件, system.txt文件放在resource目录下UserMessage用法注意: {{it}} 只能这样写, 只能在{{}}中写it, 不写it报500错误我们刚刚写的内容在用户消息中出现如果不想在{{}}中写it, 进行如下操作最后的接口会话记忆大模型是不具备记忆能力的, 要想让大模型记住之前聊天的内容, 唯一的办法就是把之前聊天的内容与新的提示词一起发给大模型1. 定义会话记忆对象2. 配置会话记忆对象达到会话记忆的效果现在的模型还有一些问题, 如果使用两个浏览器来访问前端页面, 两个浏览器的会话记忆没有隔离, 这是因为刚才我们做的会话记忆, 所有会话使用的是同一个记忆存储对象, 因此不同会话之间的记忆并没有做到隔离1. 定义会话记忆对象提供者在CommonConfig.java中定义// 构建ChatMemoryProvider对象 Bean public ChatMemoryProvider chatMemoryProvider(){ ChatMemoryProvider chatMemoryProvider new ChatMemoryProvider() { Override public ChatMemory get(Object memoryId) { return MessageWindowChatMemory.builder() .id(memoryId) .maxMessages(20) .build(); } }; return chatMemoryProvider; }2. 配置会话记忆对象提供者有chatMemoryProvider可以不用写chatMemory3. ConsultantService接口方法中添加参数memoryId4. Controller中chat接口接收memoryId5. 前端页面请求时传递memoryId在index.html第281行可以看到前端是怎么传递的参数新建会话之后, memoryId都会新生成一个刚才我们做的会话记忆, 只要后端重启, 会话记忆就没有了, 本节利用redis来实现会话记忆持久化PS: 这里视频的操作是在docker上面装redis, 但是我的电脑是windows11的家庭版, 配置环境比较麻烦, 我在这里采用Linux虚拟机的方法1. 准备redis环境我是在Linux上装redis, 主包这里配环境配了一个小时, 之前明明可以连接上的现在又不行了, 之前连不上是因为网卡ens33状态是DOWN现在它已经变成了UP并且分配了 IP, 终于能看到图形化界面了, 真是谢天谢地! ! ! 我们继续下面的学习2. 引入redis起步依赖!--redis依赖-- dependency groupIdorg.springframework.boot/groupId artifactIdspring-boot-starter-data-redis/artifactId /dependency3. 配置redis连接信息4. 提供ChatMemoryStore实现类Repository public class RedisChatMemoryStore implements ChatMemoryStore { // 注入RedisTemplate Autowired private StringRedisTemplate redisTemplate; Override public ListChatMessage getMessages(Object memoryId) { // 获取会话消息 String json redisTemplate.opsForValue().get(memoryId); // 把json数据转换成ListChatMessage ListChatMessage list ChatMessageDeserializer.messagesFromJson(json); return list; } Override public void updateMessages(Object memoryId, ListChatMessage list) { // 更新会话消息 // 1.把list转换成json数据 String json ChatMessageSerializer.messagesToJson(list); // 2.把json数据存储到redis中 redisTemplate.opsForValue().set(memoryId.toString(), json, Duration.ofDays(1)); } Override public void deleteMessages(Object memoryId) { redisTemplate.delete(memoryId.toString()); } }5. 配置ChatMemoryStore启动服务后, 访问前端, 我出现了500错误码, 经过反复调试发现是redis的密码没有写, linux的ip没写对, 这两个错误再次访问就成功了, redis图形化界面也能看到键值对, 前端也有输出重启后端服务过后, 存储在redis中的消息并没有丢失, 接着访问的时候, 用同样的Id, 实现了会话记忆会话记忆持久化实现完毕! ! !RAG知识库原理大模型知道的内容截至到它训练结束的时候, 所以训练结束之后的内容就不知道了, 这里引入RAG知识库RAG, Retrieval Augmented Generation, 检索增强生成。通过检索外部知识库的方式增强大模型的生成能力下面灰色的内容LangChain4j都可以帮我们自动完成向量数据库:Milvus、Chroma、PineconeRedisSearch(Redis)、pgvector(PostgreSQL)下面讲解如何利用向量数据库存储数据下面讲解如何从向量模型中检索出相关的向量片段余弦相似度越大, 说明向量方向越接近, 两点之间的距离越小由于RAG中, 向量都是由文本转换过来的, 不同文本对应的向量余弦相似度越大, 距离越近, 文本相似度越高快速入门1. 存储 (构建向量数据库操作对象)引入依赖!--rag-easy依赖-- dependency groupIddev.langchain4j/groupId artifactIdlangchain4j-easy-rag/artifactId version1.0.1-beta6/version /dependency加载知识数据文档构建向量数据库操作对象把文档切割、向量化并存储到向量数据库中// 构建向量数据库操作对象 Bean public EmbeddingStore embeddingStore(){ // 1.加载文档进内存 ListDocument documents ClassPathDocumentLoader.loadDocuments(content); // 2.构建向量数据库操作对象 InMemoryEmbeddingStore store new InMemoryEmbeddingStore(); // 3.构建一个EmbeddingStoreIngestor对象, 完成文本数据切割, 向量化存储 EmbeddingStoreIngestor ingestor EmbeddingStoreIngestor.builder() .embeddingStore(store) .build(); ingestor.ingest(documents); return store; }2. 检索 (构建向量数据库检索对象)构建向量数据库检索对象// 构建向量数据库检索对象 Bean public ContentRetriever contentRetriever(EmbeddingStore store){ // 1.构建向量数据库检索对象 return EmbeddingStoreContentRetriever.builder() .embeddingStore(store) .minScore(0.5) .maxResults(3) .build(); }配置向量数据库检索对象这里最后没有跑起来, 报EmbeddingModel cannot be null的错误, debug了一天还是没搞定, 后续再继续debug吧, 学习的心气都没有了, 另外, 祝大家学习的过程中一路顺风 ! 没有环境错误 ! 没有依赖冲突 !核心API一共用到了紫色的五类API文档加载器, 用于把磁盘或者网络中的数据加载进程序FileSystemDocumentLoader, 根据本地磁盘绝对路径加载ClassPathDocumentLoader, 相对于类路径加载UrlDocumentLoader, 根据url路径加载......文档解析器, 用于解析使用文档加载器加载进内存的内容, 把非纯文本数据转化成纯文本TextDocumentParser, 解析纯文本格式的文件ApachePdfBoxDocumentParser, 解析pdf格式文件ApachePoiDocumentParser, 解析微软的office文件, 例如DOC、PPT、XLSApacheTikeDocumentParser (默认), 几乎可以解析所有格式的文件如果需要切换ApachePdfBoxDocumentParser专门来解析pdf格式的文件:1. 准备pdf格式的数据2. 引入依赖!--pdf解析器依赖-- dependency groupIddev.langchain4j/groupId artifactIdlangchain4j-document-parser-apache-pdfbox/artifactId version1.0.1-beta6/version /dependency3. 指定解析器这里运行成功了, 说明上面的问题是文档解析器的问题文档分割器, 用于把一个大的文档, 切割成一个一个的小片段DocumentByParagraphSplitter, 按照段落分割文本DocumentByLineSplitter, 按照行分割文本DocumentBySentenceSplitter, 按照句子分割文本DocumentByWordSplitter, 按照词分割文本DocumentByCharacterSplitter, 按照固定数量的字符分割文本DocumentByRegexSplitter, 按照正则表达式分割文本DocumentSplitters.recursive (...) (默认) , 递归分割器, 优先段落分割, 再按照行分割, 再按照句子分割, 再按照词分割如果需要切换文本分割器:1. 构建文本分割器对象2. 设置文本分割器对象向量模型, 用于把文档分割后的片段向量化或者查询时把用户输入的内容向量化1. 配置向量模型信息2. 设置EmbeddingModel由输出日志可见, 已经向量化为坐标:注意: 这里的文档是pdf格式的文档, 如果是md格式的文档, 模型会报错, 提示文本超出字符上限EmbeddingStore, 用于操作向量数据库 (添加、检索)每次启动都会使用百炼平台的向量模型, 需要收费, 所以我们把向量化后的数据存储到外部的向量数据库中, 我们选择 RedisSearch (Redis)1. 准备向量数据库这里老师是用的docker, 我依旧linux, 具体步骤可以参考linux怎么安装redis-stack安装完后有如下输出即可2. 引入依赖!--引入langchain4j对于redis向量数据库的支持-- dependency groupIddev.langchain4j/groupId artifactIdlangchain4j-community-redis-spring-boot-starter/artifactId version1.0.1-beta6/version /dependency3. 配置向量数据库信息4. 注入RedisEmbeddingStore并使用redis向量数据库里已经正确存储了文档向量化后的数据:接下来把所有文档都放到IDE里面, 启动后报错text-embedding-v3最大处理片段只能是10, 但是langchain4j会把分割好的片段一次性发送给大模型去处理既然已经把数据存在了向量数据库里面, 我们就可以不用每次启动都执行这段代码了, 看日志, 也没有大段的向量数据了Tools工具 (以前也叫 Function Calling)准备工作开发一个预约信息服务, 可以读写MySQL中预约表中的信息1. 准备数据库环境视频里老师还是采用docker上面装MySQL, 我自己的话直接在本地3306端口运行了2. 引入依赖!--lombok-- dependency groupIdorg.projectlombok/groupId artifactIdlombok/artifactId /dependency !--mybatis-- dependency groupIdorg.mybatis.spring.boot/groupId artifactIdmybatis-spring-boot-starter/artifactId version3.0.4/version /dependency !--mysql-- dependency groupIdcom.mysql/groupId artifactIdmysql-connector-j/artifactId /dependency3. 配置连接信息4. 准备实体类5. 开发Mapper6. 开发Serviceservice层一般都是创建接口, 再提供接口的实现类, 由于代码太简单, 直接写类7. 完成测试测试添加功能测试查询功能整体测试类代码:SpringBootTest public class ReservationServiceTest { Autowired private ReservationService reservationService; // 测试添加 Test void testInsert(){ Reservation reservation new Reservation(null, 小王, 男, 13888888888, LocalDateTime.now(), 上海, 580); reservationService.insert(reservation); } // 测试查询 Test void testFindByPhone(){ String phone 13888888888; Reservation reservation reservationService.findByPhone(phone); System.out.println(reservation); } }原理和实现这是Function Calling的基本实现流程, 下面灰色的部分LangChainj已经帮我们封装好了, 下面学习如何实现1. 准备工具方法Component public class ReservationTool { Autowired private ReservationService reservationService; // 1.工具方法: 添加预约信息 // 告诉大模型方法的作用是什么, 描述方法的作用是什么 Tool(预约志愿填报服务) public void addReservation( // 大模型不知道我们输入的参数是什么, 所以需要使用批注解 P(考生姓名) String name, P(考生性别) String gender, P(考生手机号) String phone, P(预约沟通时间,格式为: yyyy-MM-ddTHH:mm) String communicationTime, P(考生所在省份) String province, P(考生预估分数) Integer estimatedScore ){ Reservation reservation new Reservation(null, name, gender, phone, LocalDateTime.parse(communicationTime), province, estimatedScore); reservationService.insert(reservation); } // 2.工具方法: 查询预约信息 Tool(根据考生手机号查询预约单) public Reservation findReservation(P(考生手机号) String phone){ return reservationService.findByPhone(phone); } }2. 配置工具方法已成功添加至数据库完结撒花课程内容希望看到这里的同学都可以找到心仪的工作, 我们江湖再见 !
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2431323.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!