LLM 监测¶
LLM(Large Language Model,大型语言模型)是一种基于深度学习的人工智能技术,能够理解和生成自然语言文本。它将 LLM 请求与整个应用链路关联起来,追踪每一次对话的完整流程,精确计量每次生成任务消耗的 Token 数量。
在实际使用 LLM 监测服务中,您可以:
-
查看单次请求的完整链路:清晰查看用户提问从接收、处理(如数据库查询)、到调用 LLM 模型并返回答案的整个过程
-
分析性能瓶颈:精确测量每个环节(如模型调用、数据检索)的耗时,及时发现延迟
-
关联上下游服务:关联 LLM 请求与相关的应用程序、基础设施指标,进行全面根因分析
核心能力¶
LLM 可观测性功能最核心的部分是建立输入(Prompt)、输出(Completion)与系统行为之间的可量化关联。其核心能力体现在三个维度:
-
全链路追踪:在 LLM 调用框架中,通过 Trace 和 Span 精确追踪请求全链路,定位延迟瓶颈
-
质量输出评估:内部基于规则引擎和 AI 评估自动优化输出内容
-
成本计量:自动采集并关联每次请求的 Token 消耗(输入/输出分解)、模型类型及调用参数,提供基于多业务维度的成本分摊能力
开始使用¶