RAFT:领域特定RAG的LLM适配配方

news2026/3/13 17:21:06
RAFT领域特定RAG的LLM适配配方【免费下载链接】gorillaGorilla: An API store for LLMs项目地址: https://gitcode.com/gh_mirrors/go/gorillaRAFTRetrieval Aware Fine-Tuning是一种专门针对领域特定RAG检索增强生成场景设计的大语言模型适配配方。该方法通过创新的数据合成策略和训练范式显著提升了LLM在特定领域文档检索和问答任务中的性能。RAFT的核心思想是通过合成训练数据来模拟真实的RAG场景让模型学会在包含相关文档oracle和干扰文档distractor的上下文中准确回答问题。RAFT方法原理与创新点RAFTRetrieval Aware Fine-Tuning是一种专门针对领域特定RAG检索增强生成场景设计的大语言模型适配配方。该方法通过创新的数据合成策略和训练范式显著提升了LLM在特定领域文档检索和问答任务中的性能。核心原理架构RAFT的核心思想是通过合成训练数据来模拟真实的RAG场景让模型学会在包含相关文档oracle和干扰文档distractor的上下文中准确回答问题。其工作原理可以通过以下流程图展示关键技术创新点1. 智能问答对生成策略RAFT采用大语言模型如GPT-4自动生成高质量的问答对针对每个文档块生成多个相关问题def generate_instructions_gen(chat_completer, chunk, x5, modelNone, prompt_keygpt): 为文档块生成x个相关问题 response chat_completer( modelmodel, messagesbuild_qa_messages[prompt_key](chunk, x), max_tokensmin(25 * x, 512) ) content response.choices[0].message.content queries content.split(\n) if content else [] return [q for q in queries if any(c.isalpha() for c in q)]2. 干扰文档注入机制RAFT引入干扰文档distractor概念模拟真实RAG系统中可能检索到的无关文档参数默认值说明--distractors3每个问题添加的干扰文档数量--p1.0oracle文档在上下文中的出现概率3. 思维链答案生成RAFT要求模型生成包含推理过程的思维链答案增强模型的可解释性和推理能力prompt_templates { gpt: Question: {question}\nContext: {context}\n Answer this question using the information given in the context above. - First provide step-by-step reasoning - Copy relevant sentences in ##begin_quote## and ##end_quote## - End with ANSWER: $answer }4. 多格式数据输出支持RAFT支持多种输出格式适应不同的训练框架5. 语义分块技术RAFT使用基于语义的文档分块方法而非简单的文本分割def get_doc_chunks(embeddings, file_path, doctypepdf, chunk_size512): 使用语义分块技术处理文档 text_splitter SemanticChunker(embeddings, number_of_chunksnum_chunks) chunks text_splitter.create_documents([text]) return [chunk.page_content for chunk in chunks]创新性对比分析与传统RAG方法相比RAFT在以下几个方面展现出显著创新特性传统RAGRAFT训练数据人工标注自动合成干扰处理无专门处理系统性干扰文档注入领域适应性通用领域特定优化推理过程端到端思维链增强数据规模有限可扩展的大规模合成技术实现细节RAFT的数据合成流程遵循严格的质量控制和验证机制文档预处理支持PDF、JSON、TXT和API文档多种格式分块策略基于语义相似度的智能分块确保内容连贯性问答生成使用prompt工程确保生成问题的相关性和多样性答案验证通过思维链格式确保答案的准确性和可解释性数据质量控制自动过滤低质量生成内容确保训练数据质量性能优势体现RAFT方法在以下方面表现出显著优势领域适应性专门针对特定领域文档进行优化抗干扰能力通过干扰文档训练增强模型在噪声环境下的表现推理能力思维链训练提升模型的逻辑推理能力可扩展性自动化数据合成支持大规模训练数据生成实用性直接适用于真实的RAG应用场景通过这种创新的训练范式RAFT成功地将大语言模型适配到特定的领域RAG场景中为实际应用提供了强有力的技术支撑。文档分块与问答对生成流程RAFTRetrieval Augmented Fine-Tuning的核心创新在于其智能化的文档处理流程通过将原始文档转换为高质量的问答对训练数据。这一流程包含四个关键阶段文档分块、问题生成、答案生成和干扰文档添加最终形成{Q, A, D}三元组训练样本。文档分块机制RAFT支持多种文档类型的分块处理包括PDF、JSON、TXT和API文档。每种文档类型都有专门的处理策略PDF文档处理流程def get_doc_chunks(embeddings, file_path, doctypepdf, chunk_size512): text with open(file_path, rb) as file: reader PyPDF2.PdfReader(file) for page_num in range(len(reader.pages)): page reader.pages[page_num] text page.extract_text() num_chunks ceil(len(text) / chunk_size) text_splitter SemanticChunker(embeddings, number_of_chunksnum_chunks) chunks text_splitter.create_documents([text]) return [chunk.page_content for chunk in chunks]API文档处理对于API文档RAFT采用端点级别的分块策略每个API端点作为一个独立的文档块if doctype api: with open(data_path) as f: api_docs_json json.load(f) chunks list(api_docs_json) chunks [str(api_doc_json) for api_doc_json in api_docs_json]RAFT使用语义分块器SemanticChunker而非简单的固定长度分块确保每个块在语义上是完整的单元。这种分块方式能够更好地保持文档的语义连贯性。问答对生成流程文档分块完成后RAFT使用大语言模型如GPT-4为每个文档块生成多个问答对问题生成阶段def generate_instructions_gen(chat_completer, chunk, x5, modelNone, prompt_keygpt): response chat_completer( modelmodel, messagesbuild_qa_messages[prompt_key](chunk, x), max_tokensmin(25 * x, 512) ) content response.choices[0].message.content queries content.split(\n) return [q for q in queries if any(c.isalpha() for c in q)]RAFT提供了两种不同的提示模板策略GPT风格提示模板build_qa_messages[gpt] lambda chunk, x: [ {role: system, content: You are a synthetic question-answer pair generator...}, {role: system, content: The questions should be able to be answered in a few words...}, {role: user, content: str(chunk)} ]Llama风格提示模板build_qa_messages[llama] lambda chunk, x: [ {role: system, content: You are a synthetic question generator. Instructions: - Generate one question per line - Questions should be succinct - Generate only questions}, {role: user, content: str(chunk)} ]答案生成阶段对于每个生成的问题RAFT使用链式思维Chain-of-Thought提示来生成详细的答案prompt_templates[gpt] Question: {question} Context: {context} Answer this question using the information given in the context above. - First provide step-by-step reasoning on how to answer the question. - In the reasoning, include relevant sentences from the context in ##begin_quote## and ##end_quote##. - End your response with final answer in the form ANSWER: $answer You MUST begin your final answer with the tag ANSWER:. 干扰文档添加策略为了增强模型的检索和推理能力RAFT为每个问答对添加干扰文档def add_distractors(chunk, questions, all_chunks, distractors_count3, p1.0): triplets [] for question in questions: # 选择干扰文档 distractor_chunks random.sample( [c for c in all_chunks if c ! chunk], distractors_count ) # 构建上下文 context_chunks distractor_chunks if random.random() p: context_chunks.append(chunk) # 添加正确答案文档 random.shuffle(context_chunks) # 打乱顺序 triplet { question: question, context: context_chunks, oracle_chunk: chunk } triplets.append(triplet) return triplets数据格式转换RAFT支持多种输出格式以适应不同的微调需求输出格式描述适用场景HF (HuggingFace)原始三元组格式自定义训练流程CompletionOpenAI完成格式GPT系列模型微调Chat对话格式聊天模型微调Eval评估格式模型性能评估格式转换示例# 转换为Completion格式 def format_to_completion(triplet, prompt_columnprompt, completion_columncompletion): context_str \n.join([fDOCUMENT{doc}/DOCUMENT for doc in triplet[context]]) prompt f{context_str}\n{triplet[question]} completion triplet[answer] STOP return {prompt_column: prompt, completion_column: completion}质量保证机制RAFT通过多种机制确保生成数据的质量内容过滤自动检测和跳过可能触发内容过滤的文档块格式验证确保生成的问答对符合预期的格式要求语义一致性通过语义分块保持文档块的语义完整性多样性保证通过随机干扰文档选择和打乱顺序增强数据多样性性能优化策略RAFT采用多线程处理和检查点机制来优化大规模文档处理checkpointed(checkpointing) def process_chunk(chunk_id, chunk, all_chunks, chat_completer, questions_per_chunk5, distractors3): # 生成问题 questions generate_instructions_gen(chat_completer, chunk, questions_per_chunk) # 生成答案并添加干扰文档 triplets [] for question in questions: answer generate_answer(chat_completer, question, chunk) triplet create_triplet(question, answer, chunk, all_chunks, distractors) triplets.append(triplet) return Dataset.from_list(triplets)整个文档分块与问答对生成流程通过智能的提示工程、语义分块和干扰文档策略将原始文档转换为高质量的监督学习数据为领域特定的RAG模型微调提供了强大的数据基础。干扰文档添加与数据集构建RAFT框架中的干扰文档添加机制是构建高质量检索增强生成(RAG)训练数据的核心环节。这一过程通过精心设计的算法为每个问题-答案对添加语义相关但内容无关的干扰文档从而模拟真实RAG场景中的信息检索挑战。干扰文档的生成原理RAFT采用基于嵌入相似度的干扰文档选择策略其核心思想是从文档语料库中随机选择与正确答案文档语义相似但内容不相关的文档片段作为干扰项。这种设计能够有效训练模型在包含噪声的上下文中准确识别相关信息。干扰文档选择算法实现RAFT的干扰文档选择过程在raft.py文件中通过以下关键函数实现def add_distractor_docs(args, chunks, oracle_chunk, num_distract): 为每个问题-答案对添加干扰文档 distractor_indices random.sample(range(len(chunks)), num_distract) distractors [chunks[i] for i in distractor_indices if i ! chunks.index(oracle_chunk)] # 确保干扰文档数量符合要求 while len(distractors) num_distract: additional_idx random.randint(0, len(chunks)-1) if additional_idx ! chunks.index(oracle_chunk) and chunks[additional_idx] not in distractors: distractors.append(chunks[additional_idx]) return distractors数据集三元组结构每个训练样本采用{Q, A, D}三元组格式其中Q (Question): 基于文档块生成的问题A (Answer): 对应的精确答案D (Distractors): 干扰文档集合{ id: seed_task_0, type: general, question: What is the official motto of the United States of America?, context: { sentences: [ the Gulf of Mexico are prone to hurricanes..., energy from fossil fuel and the largest..., weaponry, ideology, and international i..., [CLS] United States of America Flag Coat of arms..., ##om ic soft pow er. [ 405 ] [ 406 ] Nearly all present... ], title: [placeholder_title, placeholder_title, placeholder_title, placeholder_title, placeholder_title] }, answer: In God We Trust, cot_answer: None }配置参数详解RAFT提供了灵活的干扰文档配置选项通过命令行参数进行控制参数默认值说明--distractors3每个数据点包含的干扰文档数量--p1.0正确答案文档在上下文中出现的概率--chunk_size512文档分块的token数量--questions5每个文档块生成的问题数量实际应用示例以下是一个完整的RAFT数据集生成命令展示了干扰文档配置的实际应用python3 raft.py \ --datapath sample_data/United_States_PDF.pdf \ --output ./output_dataset \ --distractors 4 \ --p 0.8 \ --doctype pdf \ --chunk_size 512 \ --questions 5 \ --openai_key YOUR_OPENAI_KEY质量控制机制为确保干扰文档的质量和多样性RAFT实现了多重质量控制语义多样性保证: 通过随机抽样确保干扰文档覆盖不同主题领域重复检测: 避免相同的干扰文档在单个样本中重复出现相关性过滤: 排除与正确答案过于相似的文档片段数量验证: 确保每个样本都包含指定数量的干扰文档性能优化策略RAFT采用并行处理和检查点机制来优化大规模数据集生成# 使用多线程处理文档分块 with ThreadPoolExecutor(max_workersargs.workers) as executor: futures [executor.submit(process_chunk, chunk_id, chunk, args) for chunk_id, chunk in enumerate(chunks)] # 检查点机制确保长时间运行的任务可恢复 checkpointed(checkpointing) def process_chunk(chunk_id, chunk, args): # 处理单个文档块并生成训练样本 return generate_training_samples(chunk, args)这种设计使得RAFT能够高效处理大型文档语料库生成数万甚至数百万的高质量训练样本为领域特定的RAG模型提供充分的训练数据。通过精心设计的干扰文档添加机制RAFT确保了生成的训练数据既具有挑战性又保持真实性使模型能够在复杂的检索环境中学会准确识别相关信息从而提高在实际应用中的性能表现。Azure AI Studio微调实践在RAFT框架中Azure AI Studio提供了强大的云端微调能力让开发者能够高效地对大语言模型进行领域特定的适配。本节将详细介绍如何在Azure AI Studio中完成RAFT模型的微调部署流程。环境准备与配置在开始微调之前需要确保满足以下关键配置要求地理位置选择必须选择West US 3区域使用Pay As You Go订阅模式确保订阅已注册Microsoft.Network资源提供程序订阅类型要求数据格式转换在将RAFT生成的数据集上传到Azure AI Studio之前需要进行格式转换。RAFT提供了专门的格式转换工具# 将HuggingFace数据集转换为Azure兼容的JSONL格式 python3 format.py \ --input output/data-00000-of-00001.arrow \ --output output.completion.jsonl \ --output-format completion \ --output-completion-prompt-column prompt \ --output-completion-completion-column completion格式转换参数说明参数说明默认值必需--input输入数据集文件路径-✓--output输出文件路径-✓--output-format输出格式completion/chatcompletion✓--output-completion-prompt-column提示词列名prompt✗--output-completion-completion-column补全列名completion✗Azure AI Studio微调步骤1. 创建AI项目访问 https://ai.azure.com/ 创建新的AI项目输入项目名称并创建新的资源。2. 配置AI Hub资源输入AI Hub资源名称选择Pay As You Go订阅设置位置为West US 33. 启动微调流程在AI Studio项目中打开Fine-tuning标签页点击Fine-tune model按钮。4. 模型选择与配置5. 数据上传与映射选择upload data选项上传JSONL格式文件系统会自动显示数据的前几行预览正确映射提示词列和补全列Prompt列包含问题和上下文文档Completion列包含模型应该生成的答案6. 任务参数配置选择文本生成任务类型配置以下参数参数类别配置选项推荐值学习率Learning Rate根据模型大小调整批次大小Batch Size根据GPU内存确定训练轮数Epochs3-5轮序列长度Sequence Length匹配模型最大长度微调作业监控微调作业启动后可以在Azure AI Studio中实时监控训练进度# 监控作业状态的伪代码 while job_status ! Completed: check_job_progress() if job_status Failed: analyze_failure_reasons() adjust_parameters() restart_job() wait_for_next_check()常见监控指标训练损失Training Loss下降趋势验证准确率Validation Accuracy提升GPU利用率监控内存使用情况模型部署与测试微调完成后部署模型到推理端点部署配置选项测试部署的模型# 使用eval.py脚本测试模型性能 python3 eval.py \ --question-file YOUR_EVAL_FILE.jsonl \ --answer-file evaluation_results.json \ --base-url https://your-deployment.openai.azure.com/ \ --api-key your-api-key \ --model-name your-deployed-model最佳实践与故障排除性能优化建议数据质量确保训练数据包含高质量的{Q, A, D}三元组超参数调优根据验证集表现调整学习率和批次大小监控指标密切关注训练损失和验证准确率的收敛情况常见问题解决作业失败检查数据格式是否正确资源配额是否充足性能不佳尝试增加训练数据量或调整模型架构部署问题验证端点配置和网络连接设置通过Azure AI Studio的图形化界面和自动化流程开发者可以快速完成RAFT模型的微调部署大大降低了领域特定RAG应用的技术门槛。整个流程从数据准备到模型部署都提供了完整的工具链支持确保了微调过程的高效性和可靠性。总结通过Azure AI Studio的图形化界面和自动化流程开发者可以快速完成RAFT模型的微调部署大大降低了领域特定RAG应用的技术门槛。整个流程从数据准备到模型部署都提供了完整的工具链支持确保了微调过程的高效性和可靠性。RAFT方法通过智能化的文档处理流程、干扰文档添加机制和云端微调能力成功地将大语言模型适配到特定的领域RAG场景中为实际应用提供了强有力的技术支撑。【免费下载链接】gorillaGorilla: An API store for LLMs项目地址: https://gitcode.com/gh_mirrors/go/gorilla创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2408287.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…