数据工单打标前沿技术汇总:两阶段/多阶段流水线, RAG增强分类
数据工单打标前沿技术汇总目录数据工单打标前沿技术汇总一、技术背景与主流趋势二、使用API调用方式的代表性论文2.1 REIC: RAG-Enhanced Intent Classification at Scale (EMNLP 2025 Industry Track)2.2 TickIt: Leveraging Large Language Models for Automated Ticket Escalation (FSE 2025 Industry Track)2.3 Leveraging Large Language Models for Classifying App Users Feedback (预印本)2.4 Small sample-based adaptive text classification through iterative and contrastive description refinement (arXiv 2025)三、使用自建/自有模型的代表性论文3.1 InsightNet: Structured Insight Mining from Customer Feedback (EMNLP 2023, arXiv 2024)3.2 A Dual-Stage Framework for Automated Review Labeling (Journal of Mechanical Design, 2026)3.3 IssueBERT: A Comparison of Pretrained Models for Classifying Issue Reports (IEEE Access, 2024)3.4 SeBERTis: A Framework for Producing Classifiers of Security-Related Issue Reports (2025)四、工程实践类资源五、总结与选择建议一、技术背景与主流趋势产品反馈工单自动打标签是AI赋能客户服务的核心场景之一。从近两年的研究来看该领域的主流技术趋势大致分为以下几个流派流派代表技术核心创新典型应用场景大语言模型微调LLM Fine-tuning在领域数据上微调基座模型获得高精度分类能力领域特性强、有标注数据的场景RAG增强分类REIC (RAG Enhanced)检索相关知识动态注入prompt无需频繁重训意图类别多、taxonomy频繁变化的场景多阶段流水线Keyword Detection LLM先用规则/关键词粗筛再用LLM精标大规模、低成本要求的场景迁移学习/对比学习IssueBERT / SeBERTis领域预训练或对比学习增强语义理解软件工程领域issue报告分类零样本/少样本提示GPT API Zero-shot直接通过API调用闭源LLM进行分类快速验证、冷启动场景以下逐一列举有明确链接的真实论文按“API调用”和“自建模型”分别说明。二、使用API调用方式的代表性论文2.1 REIC: RAG-Enhanced Intent Classification at Scale (EMNLP 2025 Industry Track)论文链接https://arxiv.org/abs/2506.00210维度内容发表信息EMNLP 2025 Industry TrackZiji Zhang等9位作者2025年5月提交11月修订核心创新首次将RAG检索增强生成架构应用于大规模意图分类通过动态检索相关知识注入分类过程无需频繁重新训练模型同时在RAG框架内实现了对taxonomy变化的自适应使用的模型论文未指定具体的闭源LLM型号但其核心是RAG架构通常需要调用外部LLM API如GPT-4、Claude等来完成分类推理检索组件可使用embedding模型API如OpenAI text-embedding-3系列调用方式API调用为主——RAG架构天然依赖外部知识库检索和LLM推理实践中通常通过API调用闭源LLM服务论文强调“无需频繁retraining”暗示依赖prompt工程而非本地模型重训数据集真实世界的客服意图分类数据集跨多个垂直领域性能在域内和域外场景均优于传统fine-tuning、zero-shot和few-shot方法创新点解析REIC的核心价值在于解决了大规模客服场景中意图类别数量爆炸、taxonomy频繁变化带来的重训成本问题。它通过RAG动态注入分类所需的知识如类别定义、典型示例等使模型能够快速适应新意图这在产品反馈标签体系频繁迭代的场景中极具实用性。2.2 TickIt: Leveraging Large Language Models for Automated Ticket Escalation (FSE 2025 Industry Track)论文链接https://conf.researchr.org/details/fse-2025/fse-2025-industry-papers/30/TickIt-Leveraging-Large-Language-Models-for-Automated-Ticket-Escalation维度内容发表信息FSE 2025 Industry TrackACM软件工程领域顶会CCF A类字节跳动ByteBrain团队2025年6月核心创新将LLM应用于云服务平台的工单升级escalation任务实现“主题感知、动态、关系驱动”的工单分配设计了多分类升级、重复工单分析、类别引导监督微调三个核心模块使用的模型字节跳动的豆包Doubao大模型调用方式API调用——TickIt框架通过调用豆包模型的API接口来实现工单分类和理解论文明确提到“deploying TickIt in ByteDance‘s cloud service platform Volcano Engine”部署验证已在字节跳动火山引擎生产环境中部署验证表明该框架具备大规模工业级应用的成熟度预印本链接https://arxiv.org/pdf/2503.10876创新点解析TickIt的独特之处在于它不仅做分类还做升级决策——即根据工单内容和相关性动态决定应分配给哪个支持团队。同时它利用类别引导的监督微调持续优化性能形成了一个闭环改进机制。作为字节跳动出品、发表于CCF A类会议的工业论文其实证可信度非常高。2.3 Leveraging Large Language Models for Classifying App Users’ Feedback (预印本)论文链接https://www.semanticscholar.org/paper/Leveraging-Large-Language-Models-for-Classifying-需要进一步确认目前语义学者页面可查维度内容发表信息2025年7月预印本核心创新探索了LLM在应用用户反馈分类中的两大应用方向(1) 通过精心设计的prompt直接分类粗粒度类别(2) 用LLM标注的数据增强训练集提升传统分类器性能使用的模型未指定具体LLM型号但描述涉及prompt设计和数据标注通常意味着使用GPT-4/Claude等闭源LLM的API调用方式API调用——依赖LLM API进行zero-shot分类和标注数据生成核心发现LLM在引导良好的prompt下可以有效分类用户反馈且用LLM标注的数据增强训练集能显著提升分类器性能创新点解析这篇工作的价值在于实证验证了“LLM作为标注器”这一思路的可行性为缺少标注数据的团队提供了一条低成本、快速启动的路径。2.4 Small sample-based adaptive text classification through iterative and contrastive description refinement (arXiv 2025)论文链接https://ui.adsabs.harvard.edu/abs/2025arXivXXXXXX/abstract具体arXiv ID待查维度内容发表信息2025年arXiv预印本核心创新针对ticketing系统中类别边界模糊、样本稀缺的问题提出了迭代主题细化、对比提示和主动学习相结合的方法通过迭代式描述优化来提升小样本场景下的分类效果使用的模型大语言模型依赖prompt进行zero-shot分类调用方式API调用——核心依赖LLM API进行zero-shot推理和对比提示创新点解析该方法的特色在于不依赖大量标注数据而是通过“迭代式描述优化”让LLM逐步理解类别边界特别适合产品反馈标签体系还在演化中的早期阶段。三、使用自建/自有模型的代表性论文3.1 InsightNet: Structured Insight Mining from Customer Feedback (EMNLP 2023, arXiv 2024)论文链接https://arxiv.org/abs/2405.07195维度内容发表信息EMNLP 2023 arXiv 2024Sandeep Sricharan Mukku等作者核心创新端到端机器学习框架从客户评论中自动提取结构化洞察。核心创新包括(1) 从原始评论中构建半监督多级分类法(2) 使用语义相似性启发式方法生成标注数据(3) 通过微调LLM构建多任务洞察提取架构使用的模型自建微调LLM未指定具体基座模型但框架设计为fine-tuning approach调用方式自有模型调用——框架采用微调LLM的方式意味着模型是本地部署或自托管调用的性能多标签主题分类F10.85比此前SOTA提升11%对未见过的新方面具有良好的泛化能力创新点解析InsightNet的独特价值在于它能从无标注的原始评论中自动构建分类体系同时支持对“未见过的方面”的泛化并能主动建议新类别加入taxonomy——这对于产品反馈标签体系的动态演化非常有价值。3.2 A Dual-Stage Framework for Automated Review Labeling (Journal of Mechanical Design, 2026)论文链接https://experts.illinois.edu/en/publications/a-dual-stage-framework-for-automated-review-labeling-integrating-维度内容发表信息Journal of Mechanical Design, Vol.148 Issue 5 (2026)IF约3.6机械设计领域权威期刊Yilan Jiang等伊利诺伊大学核心创新两阶段伪标注框架(1) 第一阶段基于关键词检测进行粗筛标注(2) 第二阶段用LLM对剩余未标注数据进行上下文理解和标注。同时探索了两种LLM应用方式——Prompting LLM任务模板掩码token预测和Fine-tuned LLM领域知识微调使用的模型LLM论文同时评估了prompting和fine-tuning两种范式调用方式自有模型调用——fine-tuning方式意味着模型是自托管和自部署的prompting方式可兼用API或本地模型性能F1分数83%-97%显著优于baseline模型的53%-89%应用领域智能手机和血压监测仪两大产品类别的用户评论子特征级标注3.3 IssueBERT: A Comparison of Pretrained Models for Classifying Issue Reports (IEEE Access, 2024)论文链接https://www.x-mol.com/paper/1800597182778765312/t维度内容发表信息IEEE Access, 2024年6月韩国庆尚国立大学核心创新针对GitHub issue报告分类任务用issue数据预训练了领域专用模型IssueBERT并对比了CodeBERT、BERTOverflow、seBERT、RoBERTa等预训练模型的性能使用的模型IssueBERT自有预训练模型基于BERT架构但用issue数据进行领域预训练调用方式自有模型调用——本地部署的BERT系列模型不依赖外部API性能IssueBERT的F1比seBERT高1.74%比RoBERTa高3.61%尽管预训练数据量远少于后两者创新点解析核心发现是领域预训练的价值被低估了。用更少的领域数据预训练可以比用海量通用数据预训练取得更好的效果——这对资源有限的中小团队非常有启发。3.4 SeBERTis: A Framework for Producing Classifiers of Security-Related Issue Reports (2025)论文链接https://aisecurity-portal.org/en/literature-database/sebertis-a-framework-for-producing-classifiers-of-security-related-issue-reports/维度内容发表信息2025年预印本核心创新设计了语义替代Semantic Surrogates方法训练DNN分类器不依赖词汇线索从而能够识别全新的、未见过的安全相关issue。方法是将BERT架构微调为Masked Language Model用语义等价的词汇替代真实标签进行训练使用的模型双向Transformer架构BERT系列fine-tuned as Masked Language Model调用方式自有模型调用——本地微调和部署的Transformer模型性能F10.9880在10,000条GitHub issue报告的检测任务上大幅超越SOTA issue分类器创新点解析SeBERTis的核心创新是解决了传统分类器“记忆词汇线索”的过拟合问题。通过语义替代训练分类器被迫学习深层语义而非表面词汇模式因此对新出现的issue类型有更强的泛化能力。四、工程实践类资源除了学术论文以下工程实践资源也值得关注Labeling 10,000 Tickets Efficiently2025年9月——介绍使用GPT进行zero-shot工单预标注结合Label Studio人工校验可减少80%人工标注量。AI-powered ticket triage with multi-model classificationn8n工作流模板——同时调用OpenAI ChatGPT API、NVIDIA文本分类API和embedding搜索实现工单的多模型协同分类。GPT-4o-mini for Customer ServiceOpenAI社区案例——对GPT-4o-mini进行fine-tuning用于SaaS产品客服工单的10分类任务。五、总结与选择建议你的需求场景推荐选择推荐理由追求工业级成熟度有预算调用商业APITickIt(FSE 2025)字节跳动生产环境验证CCF A类专为工单升级/分配设计意图类别多、变化快需避免频繁重训REIC(EMNLP 2025)RAG架构天然适应类别变化API调用简单无标注数据希望快速启动LLM as Labeler方法通过API进行zero-shot预标注快速获得初步标签数据敏感需本地部署有标注数据但有限InsightNet或Dual-stage框架微调自有LLM或两阶段策略不依赖外部API处理GitHub/开源项目的issueIssueBERT(IEEE Access)专为issue报告预训练领域效果最优安全相关issue要求高泛化能力SeBERTis语义替代训练不依赖词汇线索对新类型泛化强RAG增强分类 如REIC和两阶段/多阶段流水线如Keyword Detection LLM正成为产品反馈打标签的主流范式。前者解决大规模场景下的动态适应性后者在保证精度的同时控制成本值得产品技术团队重点关注。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2521735.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!