笔记

 
作业
原版
- prompt控制节奏,实现类似关键词检索、主题、信息抽取等功能
- 注意这里根据llm返回的topic (prompt: 告诉我这句话的主题,直接说主题不要解释)进行召回检索(CacheRetriever), 并再次让大模型判断query与返回的检索的相关程度. 如果本地检索无相关程度高的,则进行网络检索(WebRetrieval) 
  - Retrieval上面套了一个CacheRetrieval, 同样的topic检索结果直接返回已经记录的. 对于新topic, 首先保持记录的cache在一定长度内(LRU?),之后就是检索Retrieval本身
 
- 查询与检索内容通过大模型生成 
  - llm service
 

web版

 
- huixiangdou拼音后有空格效果就好多了?
项目进展

 
代码阅读附带基础
-  第一步就判断是否落在工作时间?第一感觉扎心,第二感觉就很有画面感了,“你们这群开发人员在阴阳怪气什么,无法无天了,别以为不知道你们在想什么,抓起来” 
-  基础配置通过pytoml (新版改为tomllib)读取config.ini 
  
-  大模型服务: 类似微服务的方式? 一个server, 一个clinet - aiohttp倒是一个没用过的web框架
- server接受system, prompt, query返回大模型输出结果
- client调用
 
-  如何实现对pdf, excel, ppt的读取? 
-  如何控制群聊中对话的控制? 包括多人聊,以及单人可能对话中换了topic 
-  本地知识库 - 文件也作为对象更细致的进行管理, file_operation.py
 
-  如何判断介入本地知识库搜索还是网络搜索? 
Langchain



















