breadcrumb 是什么?
breadcrumb 是一个开源系统,用于追踪和检查 AI 代理中的 LLM 活动。它专注于捕获每个请求的完整提示和补全,同时记录时序和 token/成本细节,让你能探索模型调用的具体行为。
该项目定位为 TypeScript 原生且可自托管。它旨在帮助开发者理解每个追踪记录(而非仅存储遥测数据),并提供提示、响应、token 使用量以及每次追踪调用的成本的端到端视图。
核心特性
- AI 代理调用的自托管追踪:部署到网站提及的平台(如 Railway、Fly 或自有服务器),让追踪运行在你的基础设施内。
- TypeScript 原生 SDK:专为 TypeScript 工作流和插装模式设计。
- 追踪提示和补全:每个追踪请求包含实际发送的提示和返回的完整响应。
- 每个追踪的延迟和成本可见性:显示调用耗时,并提供 token 使用量和成本的逐追踪明细。
- 低摩擦设置:网站强调“仅三行代码”,无需配置文件或装饰器,也无冗长设置指南。
- 与 Vercel AI SDK 的自动追踪:页面称其开箱即用,支持通过添加遥测助手追踪
generateText和streamText调用。
如何使用 breadcrumb
- 在 TypeScript 代码中安装 SDK 并初始化一次。
- 通过
init({ apiKey, baseUrl })创建 breadcrumb 客户端。 - 使用
initAiSdk(bc)初始化 AI SDK 遥测助手。 - 将遥测助手传入 LLM 调用,使用示例中的
experimental_telemetry选项。
运行首个 generateText(或 streamText)调用后,追踪记录应出现在 breadcrumb 应用中(网站引用了演示追踪体验)。
网站示例(核心流程节选):
import { init } from "@breadcrumb-sdk/core";
import { initAiSdk } from "@breadcrumb-sdk/ai-sdk";
const bc = init({ apiKey, baseUrl });
const { telemetry } = initAiSdk(bc);
const { text } = await generateText({
// ...
experimental_telemetry: telemetry("summarize"),
});
使用场景
- 调试代理中意外模型行为:审视每个追踪请求的精确发送提示和返回补全,了解输出变化来源。
- 性能和延迟监控:利用每次调用的时序信息(每个请求耗时),识别操作链中的慢请求。
- 成本控制和预算追踪:检查每个追踪的 token 使用量和成本明细,找出消耗最多 token 的调用,避免影响账单。
- 流式 vs 非流式调用的可观测性:同时插装
generateText和streamText,追踪代理请求的全生命周期。 - 基于自托管的团队实验:在 Railway、Fly 或自有服务器上运行追踪,根据工作流需求扩展开源代码库。
常见问题
breadcrumb 只是存储工具,还是能帮助检查追踪记录?
breadcrumb 被描述为“探索追踪记录,而非仅存储”,提供每个请求的提示、补全、时序和成本可见性。
它支持 Vercel AI SDK 吗?
是的。页面称其开箱即用支持 Vercel AI SDK,通过传入遥测助手自动追踪 generateText 和 streamText 调用。
开始追踪需要配置文件或装饰器吗?
网站声称设置避免配置文件和装饰器,仅需“三行代码”即可启动。
能在自有基础设施上部署吗?
是的。页面描述其可自托管,并提及包括 Railway、Fly 或自有服务器的部署选项。
追踪记录包含哪些数据?
根据页面,每个追踪记录显示发送的提示、返回的完整响应、耗时,以及 token 使用量和成本明细。
替代方案
- 开源 LLM 可观测性/遥测工具:有其他方法记录提示、输出和 token/成本数据,通常用于调试和监控。差异常在于与框架的集成方式(中间件/SDK 钩子)以及 UI 对追踪记录的探索方式。
- 通用 APM/日志栈(带自定义 LLM 插装):可将 LLM 请求/响应元数据路由至日志/指标系统,但可能需自行构建更多追踪和成本/token 明细功能。
- AI 应用的云端追踪/分析:托管平台可减少运维工作,但根据提供商模式,可能牺牲自托管和开源自定义。
- 其他提示/响应检查工具:专注于捕获输入/输出的轻量工具有助于调试,但可能不提供此处描述的逐追踪 token 使用量和成本明细。
替代品
BenchSpan
BenchSpan 支持 AI agent 基准并行运行,自动记录得分与失败并整理运行历史;按提交标签复现,减少失败重跑浪费的 token。
AakarDev AI
AakarDev AI 是一个强大的平台,通过无缝的向量数据库集成简化 AI 应用程序的开发,实现快速部署和可扩展性。
Edgee
Edgee 边缘原生 AI 网关:在请求到达 LLM 供应商前压缩提示词,提供单一 OpenAI 兼容 API,路由 200+ 模型并按 token 降本降延迟。
Sleek Analytics
Sleek Analytics 轻量且注重隐私的实时分析:查看访客来源、浏览页面和停留时长,了解站点当前互动。
Codex Plugins
使用 Codex Plugins 将技能、应用集成和 MCP 服务器打包成可复用工作流,扩展 Codex 访问 Gmail、Google Drive 与 Slack 等工具。
OpenFlags
OpenFlags 是开源自托管功能开关系统,支持渐进式交付;应用 SDK 本地评估,配套简单控制平面实现安全定向发布。