UStackUStack
OpenBug CLI icon

OpenBug CLI

OpenBug CLI è un tool CLI con assistenza AI per il debugging in tempo reale: acquisisce log, cerca nel codice locale e risponde in terminale interattivo.

OpenBug CLI

Cos'è OpenBug CLI?

OpenBug CLI è un tool CLI intelligente per il debugging di applicazioni in esecuzione con assistenza AI. Abbina un assistente terminale interattivo a un cluster locale che cattura i log mentre esegui i tuoi servizi, quindi usa quei log e il tuo codice per rispondere alle domande di debugging.

Lo scopo principale è ridurre il passaggio di contesto tra comportamento in runtime (log) e codice sorgente. Invece di cercare manualmente tra più terminali e file, puoi porre domande su cosa sta succedendo e far correlare alla CLI i log rilevanti con il codice accessibile localmente.

Caratteristiche Principali

  • Assistente AI terminale interattivo (debug): Avvia l'assistente in un terminale e usalo per porre domande sui problemi mentre i tuoi servizi sono in esecuzione.
  • Cattura e streaming automatico dei log: Quando esegui i tuoi servizi con debug <command>, OpenBug invia in streaming i log al cluster locale per l'uso nelle risposte AI.
  • Ricerca nel codice in linguaggio naturale sull'intero codebase locale: L'assistente può cercare nel tuo codebase in risposta a domande come dove è implementato un dato comportamento.
  • Debugging multi-servizio tramite cluster locale condiviso: Esegui servizi diversi in terminali separati; tutti si connettono allo stesso cluster così l'AI può tracciare i problemi lungo l'intero stack.
  • Accesso locale-first e condivisione dati selettiva: Il codebase è accessibile localmente e non caricato; solo snippet specifici richiesti dall'AI sono inviati al server, e i log sono inviati in streaming solo quando necessari per rispondere.
  • Richieste autenticate con chiave API personale: La CLI autentica le richieste con la tua chiave API (come descritto nel flusso di setup).

Come Usare OpenBug CLI

  1. Installa la CLI con:
    npm install -g @openbug/cli
    
  2. Avvia l'assistente AI nel Terminale 1:
    debug
    
    Verrai invitato a effettuare il login e incollare una chiave API dall'app OpenBug.
  3. Esegui i tuoi servizi con debugging abilitato in altri terminali. Esempi dal repository:
    debug npm run dev
    debug python app.py
    debug docker-compose up
    
  4. Poni domande di debugging nel Terminale 1 mentre i tuoi servizi sono in esecuzione. L'assistente analizza i log catturati e cerca nel tuo codebase per fornire insight mirati.

Se stai testando senza setup, il progetto offre anche una demo interattiva che guida attraverso il debugging di tre bug realistici.

Casi d'Uso

  • Diagnostica perché un endpoint fallisce in sviluppo locale: Chiedi, ad esempio, “Perché l'auth sta fallendo?” mentre il backend è in esecuzione; l'assistente può riferirsi ai log rilevanti e localizzare la logica di validazione correlata.
  • Traccia problemi tra più servizi: Esegui backend e frontend (o più servizi backend) in terminali separati con debug ...; l'AI può usare log da più servizi per spiegare come un errore si propaga.
  • Trova punti di implementazione per un comportamento sconosciuto: Usa domande in linguaggio naturale come “Dove gestiamo i webhook di pagamento?” per far cercare all'assistente nel repository locale dove è implementato il comportamento.
  • Indaga inconsistenze dati viste in runtime: Quando i log suggeriscono schemi non corrispondenti o errori di configurazione, chiedi all'AI di correlare righe di log con i percorsi di codice rilevanti.
  • Debugga codebase sconosciute senza affidarti alla ricerca internet: L'assistente cerca nel codebase locale effettivo invece di cercare su internet consigli generici.

FAQ

  • OpenBug carica l'intero mio codebase? No. La documentazione specifica che il tuo codebase è accessibile localmente e mai caricato; solo snippet di codice specifici richiesti dall'AI sono inviati al server.

  • Quando OpenBug invia i log al server? I log sono inviati in streaming al server solo quando l'AI ne ha bisogno per rispondere alle tue domande.

  • Come OpenBug supporta il debugging tra più servizi? Usando un cluster locale condiviso: esegui più servizi in terminali diversi con debug <command>, e tutti si connettono allo stesso cluster così l'AI può correlare i log lungo l'intero stack.

  • Posso self-hostare il server OpenBug? Sì. Il repository descrive un approccio di self-hosting: clona il repository del server, configuralo con la tua chiave API OpenAI, poi punta la CLI al tuo server tramite variabili d'ambiente come WEB_SOCKET_URL e API_BASE_URL.

Alternative

  • Debugging locale con log + ricerca testuale (es. grep/ripgrep) + tooling IDE: Input simili (log e codice sorgente), ma il workflow si basa su correlazione e navigazione manuale anziché un'interfaccia conversazionale assistita da AI.
  • Piattaforme per performance/applicazioni e osservabilità (log e dashboard di tracing): Utili per visualizzare e interrogare dati di runtime, ma tipicamente non offrono debugging in linguaggio naturale, consapevole del codice, dal repository locale.
  • Assistenti AI per codice focalizzati su Q&A repository (senza acquisizione log runtime): Possono rispondere su struttura del codice, ma non catturano automaticamente log da servizi in esecuzione per ancorare le risposte al comportamento runtime.