Rete
Rete è una piattaforma AI locale per i dispositivi Apple: chat e Q&A sui documenti sul tuo Mac, iPhone, iPad e Apple TV, senza cloud.
Cos'è Rete?
Rete è una piattaforma AI locale per dispositivi Apple che ti permette di eseguire l'AI direttamente sul tuo Mac, iPhone, iPad e Apple TV, senza utilizzare servizi cloud. Dopo l'installazione, i tuoi dispositivi possono connettersi per formare una mesh di calcolo e dividere il lavoro per accelerare e migliorare le risposte.
L'idea centrale è “paghi una volta, possiedi per sempre”, senza abbonamenti e senza necessità di cloud. Rete offre un'esperienza di chat più strumenti di supporto come la domanda-risposta sui documenti (RAG), assistenza al codice e cronologia delle conversazioni ricercabile, tutto in esecuzione sui tuoi dispositivi.
Caratteristiche Principali
- AI locale-first sui tuoi dispositivi Apple (macOS, iOS, Apple TV): conversazioni ed esecuzione del modello avvengono on-device invece di affidarsi al processamento cloud.
- “Mesh computing” multi-dispositivo su Wi‑Fi: i dispositivi si scoprono automaticamente e possono contribuire potenza GPU tramite Metal.
- Bilanciamento automatico del carico tra dispositivi: Rete instrada i task al dispositivo più veloce nella mesh e espone metriche di performance.
- Supporto e flessibilità per i modelli: scarica o importa modelli, inclusi Llama, Mistral, Phi, Gemma e Qwen.
- “Esperti fine-tuned” integrati: include 5 modalità esperte fine-tuned tra cui passare.
- RAG sui documenti e ricerca sui tuoi file: supporta PDF, codice, CSV e testo per ancorare le domande ai documenti forniti tramite retrieval contestuale basato su embedding.
- Rendering Markdown con evidenziazione sintattica: migliora la leggibilità per scrittura e output legati al codice.
- Memoria e personalizzazione tra conversazioni: ricorda fatti chiave e impara le tue preferenze e il contesto nel tempo.
- Organizzazione e ricerca delle conversazioni: cartelle più ricerca completa sulla cronologia dei messaggi.
- Mesh remota tramite codice invito: connetti dispositivi su reti diverse usando un codice invito per far加入are altri dispositivi alla tua mesh.
Come Usare Rete
- Installa Rete sul tuo Mac, poi apri l'app. Rete scansiona l'hardware e raccomanda un modello AI adatto alla tua macchina.
- Installa Rete su iPhone, iPad e/o Apple TV. Quando questi dispositivi sono sulla stessa rete Wi‑Fi, si connettono automaticamente per formare una mesh.
- Avvia una chat in Rete. I tuoi dispositivi dividono il lavoro, e puoi usare funzionalità come RAG sui documenti, cartelle e cronologia ricercabile mentre interagisci con l'AI.
Casi d'Uso
- Assistente personale e Q&A stile ricerca: poni domande in chat e mantieni una cronologia ricercabile tra conversazioni restando locale sui tuoi dispositivi.
- Domande ancorate ai documenti (RAG): carica o referenzia PDF, CSV o file testo/codice e poni domande ancorate al contenuto tramite retrieval basato su embedding.
- Workflow di aiuto e review del codice: usa modalità esperte integrate e output con sintassi evidenziata per assistere nella scrittura e review del codice.
- Supporto alla scrittura con formattazione: genera e raffina testo visualizzando risposte con rendering Markdown e blocchi di codice evidenziati.
- Inference locale più veloce scalando i dispositivi: per prompt più lunghi o pesanti, aggiungi un iPad, iPhone o Apple TV per espandere la mesh di calcolo e instradare il lavoro sull'hardware disponibile.
FAQ
Ho bisogno di un account cloud o abbonamento per usare Rete?
No. Il sito specifica che Rete gira sui tuoi dispositivi, non usa cloud, non richiede account e non ha abbonamenti.
Quali dispositivi sono supportati?
Rete supporta macOS su Mac e iOS su iPhone e iPad, più un'app per Apple TV.
Come connetto più dispositivi?
I dispositivi si connettono automaticamente su Wi‑Fi per formare una mesh. Per reti diverse, puoi condividere un codice invito.
Quali modelli può eseguire Rete?
Rete può scaricare modelli dall'app o importare i tuoi. Il sito elenca Llama, Mistral, Phi, Gemma e Qwen come famiglie di modelli supportate.
Cos'è il “Document RAG” in Rete?
Si riferisce all'aggiunta di documenti (come PDF, codice, CSV o testo) per porre domande ancorate ai tuoi dati, usando ricerca basata su embedding per recuperare contesto rilevante.
Alternative
- App LLM/chat locali self-hosted: Invece di una mesh di dispositivi su hardware Apple, queste eseguono i modelli localmente su una singola macchina (o tramite server locali che gestisci), tipicamente con un flusso di setup diverso.
- Chatbot basati su cloud: Gestiscono l'inferenza nel cloud e di solito offrono un accesso più semplice tra dispositivi, ma differiscono dall'approccio local-first di Rete (senza cloud, senza account indicati sul sito).
- Toolkit RAG locali e pipeline di embedding: Se il tuo obiettivo principale è Q&A su documenti, le alternative possono concentrarsi su retrieval, indexing ed embedding, lasciando UX della chat e orchestrazione dei dispositivi a te.
- Runner di modelli per sviluppatori: Strumenti che privilegiano gestione del modello e inferenza sul tuo hardware possono essere un'alternativa se vuoi più controllo su selezione del modello e runtime, anche se potrebbero non offrire lo stesso flusso di mesh per dispositivi Apple.
Alternative
BookAI.chat
BookAI ti consente di chattare con i tuoi libri utilizzando l'IA semplicemente fornendo il titolo e l'autore.
skills-janitor
skills-janitor esegue audit, traccia l’uso e confronta le tue skill per Claude Code con 9 azioni slash mirate, senza dipendenze.
Struere
Struere è un sistema operativo AI-native che sostituisce i workflow su spreadsheet con software strutturato: dashboard, alert e automazioni.
garden-md
Trasforma trascrizioni e note riunioni in una wiki aziendale strutturata e navigabile con file Markdown locali e vista HTML, con sync da sorgenti supportate.
Falconer
Falconer è una piattaforma di conoscenza che si aggiorna da sola: scrivi, condividi e trova documentazione interna e contesto del codice in un unico posto.
AakarDev AI
AakarDev AI è una piattaforma potente che semplifica lo sviluppo di applicazioni AI con integrazione fluida dei database vettoriali, consentendo un rapido deployment e scalabilità.