AI应用的可观测性工程2026:让LLM系统从黑盒变白盒

news2026/4/29 18:47:36
为什么AI应用难以调试传统软件系统出了问题你有一套成熟的调试手段查日志、看堆栈、断点调试、Metrics报警。这些工具运作良好因为传统系统是确定性的——相同输入必然相同输出错误有明确的代码路径。LLM应用打破了这一切。同一个prompt不同时间的输出可能不同temperature 0。用户说结果不对但你不知道是prompt的问题、模型的问题、还是RAG检索的问题。生产环境突然准确率下降但没有任何异常日志——因为LLM总是成功地返回了一些文字只是内容不对。**AI可观测性LLM Observability**正是为了解决这些问题而出现的工程领域。它不是普通的日志监控而是专门为LLM系统设计的追踪、评估和分析体系。## 可观测性的三层架构AI应用的可观测性分为三个层次从底层到顶层第三层业务可观测性 - 用户满意度、任务完成率、业务指标 ↑第二层LLM可观测性 - Trace追踪、Prompt日志、Token统计、延迟分布 ↑第一层基础设施可观测性 - CPU/GPU、内存、API调用错误率、网络延迟大多数团队只做第一层这是远远不够的。本文重点讨论第二层和第三层。## LLM追踪Tracing工程实践### 为什么Trace比Log更重要传统日志记录单点事件。而LLM应用的一次用户请求可能涉及用户输入 → 意图理解 → RAG检索 → Prompt构建 → LLM调用 → 结果后处理 → 输出。这个链路中任何一步出问题都会影响最终质量但日志无法告诉你这次响应的第3步RAG检索只召回了2条相关文档导致回答缺乏依据。Trace分布式追踪提供了完整的请求链路视图每一步都有输入、输出、耗时、用量、元数据。### 用LangSmith实现自动Tracepythonimport osfrom langsmith import Client, traceablefrom langchain_openai import ChatOpenAIfrom langchain_core.prompts import ChatPromptTemplateimport anthropic# 配置LangSmithos.environ[LANGCHAIN_TRACING_V2] trueos.environ[LANGCHAIN_API_KEY] your_langsmith_api_keyos.environ[LANGCHAIN_PROJECT] my_ai_app_prod# 自动追踪LangChain调用llm ChatOpenAI(modelgpt-4o, temperature0.3)traceable(namerag_pipeline, run_typechain)def rag_pipeline(user_question: str) - dict: RAG完整链路自动被LangSmith追踪 # 步骤1检索 docs retrieve_relevant_docs(user_question) # 步骤2构建prompt context \n\n.join([d.page_content for d in docs]) prompt f基于以下上下文回答问题\n\n{context}\n\n问题{user_question} # 步骤3LLM调用自动记录prompt和response response llm.invoke(prompt) return { answer: response.content, source_docs: len(docs), context_length: len(context) }traceable(nameretrieve_docs, run_typeretriever)def retrieve_relevant_docs(query: str) - list: 文档检索单独追踪 # 实际检索逻辑 return vector_store.similarity_search(query, k5)### 自建轻量级Trace系统pythonimport uuidimport timeimport jsonfrom dataclasses import dataclass, field, asdictfrom typing import Optional, List, Any, Dictfrom contextlib import contextmanagerfrom datetime import datetimedataclassclass Span: 单个追踪跨度 span_id: str field(default_factorylambda: str(uuid.uuid4())[:8]) name: str trace_id: str parent_span_id: Optional[str] None start_time: float field(default_factorytime.time) end_time: Optional[float] None # LLM特定字段 inputs: Dict[str, Any] field(default_factorydict) outputs: Dict[str, Any] field(default_factorydict) metadata: Dict[str, Any] field(default_factorydict) # Token和成本追踪 input_tokens: int 0 output_tokens: int 0 cost_usd: float 0.0 error: Optional[str] None property def duration_ms(self) - float: if self.end_time: return (self.end_time - self.start_time) * 1000 return 0.0 def finish(self, outputs: dict None, error: str None): self.end_time time.time() if outputs: self.outputs outputs if error: self.error errorclass LLMTracer: 轻量级LLM追踪器 def __init__(self, backendconsole): self.backend backend self._active_spans: Dict[str, Span] {} self.spans: List[Span] [] contextmanager def trace(self, name: str, trace_id: str None, parent_id: str None, **metadata): 追踪上下文管理器 span Span( namename, trace_idtrace_id or str(uuid.uuid4()), parent_span_idparent_id, metadatametadata ) self._active_spans[span.span_id] span try: yield span span.finish() except Exception as e: span.finish(errorstr(e)) raise finally: self._active_spans.pop(span.span_id, None) self.spans.append(span) self._emit(span) def _emit(self, span: Span): 发送追踪数据 if self.backend console: status ERROR if span.error else OK print(f[TRACE] {span.name} | {status} | {span.duration_ms:.0f}ms | ftokens{span.input_tokensspan.output_tokens} | fcost${span.cost_usd:.4f}) elif self.backend file: with open(traces.jsonl, a, encodingutf-8) as f: f.write(json.dumps(asdict(span), ensure_asciiFalse) \n)# 全局追踪器实例tracer LLMTracer(backendfile)class TracedOpenAIClient: 带自动追踪的OpenAI客户端包装 COST_PER_TOKEN { gpt-4o: {input: 2.5e-6, output: 10e-6}, gpt-4o-mini: {input: 0.15e-6, output: 0.6e-6}, o1: {input: 15e-6, output: 60e-6}, } def __init__(self, api_key: str None): import openai self.client openai.OpenAI(api_keyapi_key) def chat_completion( self, messages: list, model: str gpt-4o, trace_id: str None, span_name: str llm_call, **kwargs ) - dict: 带追踪的chat completion调用 with tracer.trace(span_name, trace_idtrace_id, modelmodel) as span: span.inputs {messages: messages, model: model, **kwargs} response self.client.chat.completions.create( modelmodel, messagesmessages, **kwargs ) # 记录token使用 span.input_tokens response.usage.prompt_tokens span.output_tokens response.usage.completion_tokens # 计算成本 costs self.COST_PER_TOKEN.get(model, {input: 0, output: 0}) span.cost_usd ( span.input_tokens * costs[input] span.output_tokens * costs[output] ) output response.choices[0].message.content span.outputs {content: output[:500]} # 只记录前500字符 return { content: output, usage: { input_tokens: span.input_tokens, output_tokens: span.output_tokens, cost_usd: span.cost_usd } }## LLM评估Evaluation框架追踪只是记录发生了什么评估才是判断好不好。### 自动化评估指标pythonfrom enum import Enumimport reclass EvalMetric(Enum): FAITHFULNESS faithfulness # 回答是否忠实于上下文RAG防幻觉 RELEVANCE relevance # 回答是否与问题相关 COMPLETENESS completeness # 回答是否完整 SAFETY safety # 回答是否安全无有害内容 COHERENCE coherence # 回答是否语义连贯class LLMEvaluator: 使用LLM-as-Judge方法进行自动化评估 让一个强模型如GPT-4o评估另一个模型的输出质量 def __init__(self, judge_model: str gpt-4o): import openai self.client openai.OpenAI() self.judge_model judge_model def evaluate_faithfulness(self, context: str, answer: str) - dict: 评估RAG回答是否忠实于检索到的上下文 核心RAG质量指标防止幻觉 prompt f评估任务判断回答是否完全基于上下文没有引入上下文中不存在的信息。上下文{context[:2000]}回答{answer}评分标准- 5分回答完全基于上下文没有任何幻觉- 4分回答主要基于上下文有极少量推断合理- 3分回答部分基于上下文有明显的推断或补充- 2分回答混合了上下文内容和外部知识- 1分回答大量包含上下文中不存在的信息严重幻觉只输出JSON{{score: 1-5, reason: 一句话解释, has_hallucination: true/false}} response self.client.chat.completions.create( modelself.judge_model, response_format{type: json_object}, messages[{role: user, content: prompt}] ) import json result json.loads(response.choices[0].message.content) return { metric: faithfulness, score: result[score] / 5.0, # 归一化到0-1 raw_score: result[score], reason: result.get(reason, ), has_hallucination: result.get(has_hallucination, False) } def evaluate_answer_relevance(self, question: str, answer: str) - dict: 评估回答是否真正回答了问题 prompt f问题{question}回答{answer}评估回答是否直接、完整地回答了问题。只输出JSON{{score: 1-5, addressed_question: true/false, reason: ...}} response self.client.chat.completions.create( modelself.judge_model, response_format{type: json_object}, messages[{role: user, content: prompt}] ) import json result json.loads(response.choices[0].message.content) return { metric: relevance, score: result[score] / 5.0, addressed_question: result.get(addressed_question, True) } def batch_evaluate(self, samples: List[dict]) - dict: 批量评估用于离线质量分析 samples格式[{question: ..., context: ..., answer: ..., trace_id: ...}] results [] for sample in samples: eval_result { trace_id: sample.get(trace_id), question: sample[question][:100] } if sample.get(context): eval_result[faithfulness] self.evaluate_faithfulness( sample[context], sample[answer] ) eval_result[relevance] self.evaluate_answer_relevance( sample[question], sample[answer] ) results.append(eval_result) # 汇总统计 faithfulness_scores [r[faithfulness][score] for r in results if faithfulness in r] relevance_scores [r[relevance][score] for r in results] return { total_samples: len(results), avg_faithfulness: sum(faithfulness_scores) / len(faithfulness_scores) if faithfulness_scores else None, avg_relevance: sum(relevance_scores) / len(relevance_scores), hallucination_rate: sum(1 for r in results if r.get(faithfulness, {}).get(has_hallucination)) / len(results), details: results }## Prometheus Grafana监控集成pythonfrom prometheus_client import Counter, Histogram, Gauge, start_http_serverimport time# 定义LLM特定的Prometheus指标LLM_REQUESTS_TOTAL Counter( llm_requests_total, LLM API调用总次数, [model, endpoint, status])LLM_LATENCY_SECONDS Histogram( llm_latency_seconds, LLM API响应时间分布, [model], buckets[0.5, 1.0, 2.0, 5.0, 10.0, 30.0, 60.0])LLM_TOKENS_TOTAL Counter( llm_tokens_total, Token使用量, [model, token_type] # token_type: input/output)LLM_COST_USD_TOTAL Counter( llm_cost_usd_total, 累计API成本美元, [model])EVAL_SCORE Gauge( llm_eval_score, 最近N次评估的平均分, [metric_name] # faithfulness/relevance/etc.)class PrometheusLLMMonitor: LLM监控的Prometheus集成 def record_call(self, model: str, status: str, latency: float, input_tokens: int, output_tokens: int, cost: float): LLM_REQUESTS_TOTAL.labels(modelmodel, endpointchat, statusstatus).inc() LLM_LATENCY_SECONDS.labels(modelmodel).observe(latency) LLM_TOKENS_TOTAL.labels(modelmodel, token_typeinput).inc(input_tokens) LLM_TOKENS_TOTAL.labels(modelmodel, token_typeoutput).inc(output_tokens) LLM_COST_USD_TOTAL.labels(modelmodel).inc(cost) def update_eval_scores(self, eval_results: dict): for metric, score in eval_results.items(): if isinstance(score, (int, float)): EVAL_SCORE.labels(metric_namemetric).set(score)# 在应用启动时暴露metrics端点# start_http_server(8000) # Prometheus会来抓取 http://localhost:8000/metrics## 可观测性平台选型| 工具 | 适用场景 | 优势 | 局限 ||------|----------|------|------|| LangSmith | LangChain项目 | 开箱即用、深度集成 | 仅LangChain生态 || Langfuse | 开源、自托管 | 灵活、可私有化 | 需要自己运维 || Weights Biases | ML实验追踪 | 实验管理强 | LLM功能较新 || Helicone | 轻量代理方式 | 零侵入集成 | 功能相对简单 || 自建本文方案 | 定制化需求 | 完全控制 | 开发成本高 |## 总结LLM可观测性的核心实践1.追踪每一次LLM调用记录完整的输入输出、token用量、延迟和成本2.链路级Trace不只是点日志一次用户请求的完整链路追踪找到瓶颈步骤3.自动化质量评估LLM-as-Judge评估幻觉率、相关性替代纯人工质检4.成本和延迟双监控生产环境的质量问题往往先反映在这两个指标上5.Prompt版本管理追踪不同prompt版本的效果差异支持A/B测试从黑盒到白盒不是一步完成的。先把追踪做起来再做评估最后建立完整的监控体系。每一步都比什么都没有好得多。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2566356.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…