breadcrumb
breadcrumb — самохостируемый open-source трейсинг LLM для AI-агентов: фиксирует промпты, ответы, токены, время и стоимость запросов в TypeScript.
Что такое breadcrumb?
breadcrumb — это open-source система для трейсинга и анализа активности LLM в ваших AI-агентах. Она фокусируется на захвате полного промпта и ответа для каждого запроса, а также времени выполнения и деталей по токенам/стоимости, чтобы вы могли изучить, что делают вызовы вашей модели.
Проект описан как TypeScript-native и самохостируемый. Он создан, чтобы помогать разработчикам понимать каждый трейс (а не просто хранить телеметрию) и предоставлять end-to-end обзор промптов, ответов, использования токенов и стоимости за трейс.
Ключевые возможности
- Самохостируемый трейсинг для вызовов AI-агентов: разверните на платформах, указанных на сайте (например, Railway, Fly или ваших серверах), чтобы трейсинг работал в вашей инфраструктуре.
- TypeScript-native SDK: разработан для TypeScript-воркфлоу и паттернов инструментации.
- Трейсинг промптов и ответов: каждый трейс-запрос включает отправленный промпт и полный полученный ответ.
- Видимость задержек и стоимости по трейсам: показывает время выполнения вызова и разбивку по токенам и стоимости для каждого трейса.
- Простая настройка без лишних усилий: сайт подчеркивает «три строки кода», без конфиг-файлов, декораторов или длинных гайдов.
- Автоматический трейсинг с Vercel AI SDK: страница указывает, что работает из коробки с вызовами
generateTextиstreamTextпри добавлении телеметрического хелпера.
Как использовать breadcrumb
- Установите SDK и инициализируйте один раз в вашем TypeScript-коде.
- Создайте клиент breadcrumb вызовом
init({ apiKey, baseUrl }). - Инициализируйте телеметрический хелпер AI SDK с
initAiSdk(bc). - Передайте телеметрический хелпер в вызовы LLM через опцию
experimental_telemetry, как в примере.
После первого вызова generateText (или streamText) трейс появится в приложении breadcrumb (сайт ссылается на демо-трейс).
Пример с сайта (сокращен для основного потока):
import { init } from "@breadcrumb-sdk/core";
import { initAiSdk } from "@breadcrumb-sdk/ai-sdk";
const bc = init({ apiKey, baseUrl });
const { telemetry } = initAiSdk(bc);
const { text } = await generateText({
// ...
experimental_telemetry: telemetry("summarize"),
});
Сценарии использования
- Отладка неожиданного поведения модели в агенте: просматривайте точный отправленный промпт и полученный ответ для каждого трейс-запроса, чтобы понять источник изменений в выводе.
- Мониторинг производительности и задержек: используйте данные по времени на вызов (сколько занял каждый запрос), чтобы выявить медленные запросы в цепочке операций.
- Контроль затрат и отслеживание бюджета: проверяйте использование токенов и разбивку стоимости по трейсам, чтобы найти вызовы, потребляющие больше всего токенов, до влияния на счета.
- Наблюдаемость для стриминговых и нестриминговых вызовов: инструментируйте как
generateText, так иstreamText, чтобы трейсить полный lifecycle запросов агента. - Командные эксперименты с самохостингом: запускайте трейсинг на Railway, Fly или своих серверах и расширяйте open-source код под ваш воркфлоу.
FAQ
breadcrumb — это просто хранилище или помогает инспектировать трейсы?
breadcrumb описан как инструмент для «изучения ваших трейсов, а не просто хранения», с видимостью промпта, ответа, времени и стоимости за запрос.
Работает ли с Vercel AI SDK?
Да. Страница указывает, что работает из коробки с Vercel AI SDK, автоматически трейся generateText и streamText при передаче телеметрического хелпера.
Нужны ли конфиг-файлы или декораторы для старта трейсинга?
Сайт утверждает, что настройка избегает конфиг-файлов и декораторов и начинается с «трех строк кода».
Можно ли развернуть на своей инфраструктуре?
Да. Страница описывает как самохостируемый и упоминает опции развертывания: Railway, Fly или свои серверы.
Какие данные включает трейс?
Согласно странице, каждый трейс показывает отправленный промпт, полный полученный ответ, время выполнения и разбивку по токенам и стоимости.
Альтернативы
- Open-source инструменты LLM-observability/telemetry: есть другие подходы к логированию промптов, выводов и данных по токенам/стоимости, обычно для отладки и мониторинга. Различия в интеграции с фреймворком (middleware/SDK hooks) и UI для исследования трейсов.
- Общие APM/логирующие стеки (с кастомной инструментацией LLM): можно направлять метаданные LLM-запросов/ответов в системы логирования/метрик, но может потребоваться самостоятельно строить трейсинг и разбивку по токенам/стоимости.
- Облачные платформы трейсинга/аналитики для AI-приложений: хостинг снижает операционную нагрузку, но может жертвовать самохостингом и open-source кастомизацией в зависимости от модели провайдера.
- Другие утилиты для инспекции промптов/ответов: легковесные инструменты для захвата входов/выходов помогают отладке, но могут не предоставлять такую же разбивку по токенам и стоимости за трейс.
Альтернативы
BenchSpan
BenchSpan запускает AI agent бенчмарки параллельно, фиксирует результаты и ошибки в истории прогонов, помогает воспроизводить их по commit hash.
AakarDev AI
AakarDev AI — это мощная платформа, которая упрощает разработку приложений ИИ с бесшовной интеграцией векторных баз данных, позволяя быстрое развертывание и масштабируемость.
Edgee
Edgee — edge-native AI gateway: сжимает промпты перед LLM-провайдерами и дает единый OpenAI-compatible API для маршрутизации 200+ моделей.
Sleek Analytics
Sleek Analytics — легкая аналитика с приватным подходом и实时-трекингом посетителей: откуда приходят, что смотрят и сколько времени проводят.
Codex Plugins
Используйте Codex Plugins, чтобы объединять skills, интеграции приложений и MCP-серверы в повторно используемые сценарии для доступа к Gmail, Google Drive и Slack.
OpenFlags
OpenFlags — open source self-hosted система feature flags для progressive delivery: локальная оценка в SDK и простая REST контрольная плоскость для безопасных релизов.