Gemma 4
Gemma 4 est une famille de modèles open conçue pour le raisonnement avancé et des workflows agentiques, avec tailles adaptées au local/edge.
Qu'est-ce que Gemma 4 ?
Gemma 4 est une famille de modèles open conçue pour fonctionner sur une gamme de matériel de développement et edge. Elle vise le raisonnement avancé et les « workflows agentiques », au-delà du chat basique pour supporter des tâches nécessitant une logique multi-étapes et l'usage d'outils.
Gemma 4 est publiée sous licence Apache 2.0 et complète les modèles Gemini de Google en offrant aux développeurs une option open-model exécutable localement et affinable pour leurs tâches.
Fonctionnalités clés
- Tailles multiples pour différents matériels : Gemma 4 est disponible en quatre tailles — Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) et 31B Dense — pour choisir capacité vs besoins d'exécution.
- Support des workflows agentiques : Support natif pour function-calling, structured JSON output et native system instructions afin de créer des agents interagissant avec outils et API.
- Raisonnement avancé : Améliorations démontrées sur benchmarks maths et suivi d'instructions nécessitant planification multi-étapes et logique approfondie.
- Génération de code pour usage local : Supporte la génération de offline code de haute qualité, pour un workflow d'assistant code AI local-first.
- Entrées multimodales (vidéo, images et audio sur tailles edge) : Tous les modèles traitent nativement video and images pour OCR et compréhension de graphiques ; les modèles E2B et E4B incluent aussi native audio input pour reconnaissance et compréhension vocale.
- Traitement long-context : Modèles edge avec fenêtre de 128K context, modèles plus grands jusqu'à 256K, pour prompts incluant documents ou dépôts longs.
- Capacités multilingues : Entraînée nativement sur plus de 140 langues pour développement d'applications multi-langues.
Comment utiliser Gemma 4
- Choisir une taille adaptée à votre matériel et besoins de latence (E2B/E4B pour usage edge/local multimodal ; 26B/31B pour raisonnement plus performant sur GPU/stations adaptées).
- Exécuter les poids du modèle localement et l'intégrer à votre workflow applicatif.
- Affiner sur vos tâches pour performances spécifiques ; Gemma 4 est dimensionnée pour exécution et affinage efficaces sur matériel.
- Utiliser les capacités comme function-calling et structured JSON outputs pour flows agentiques appelant outils et produisant résultats lisibles machine.
Cas d'usage
- Construire un agent autonome utilisant des outils : Utiliser function-calling + structured JSON output pour exécuter workflows multi-étapes interagissant avec outils ou API externes.
- Assistant code local-first : Exécuter Gemma 4 offline sur station pour génération de code sans inférence distante, et structurer réponses pour workflows développeurs.
- OCR et compréhension de graphiques dans documents : Envoyer images (et contenu vidéo) au modèle adapté pour extraire texte via OCR ou interpréter graphiques.
- Applications edge avec voix : Utiliser E2B ou E4B avec native audio input pour reconnaissance et compréhension vocale en faible latence.
- Analyse de documents long-form : Fournir documents ou contextes dépôts à modèles avec fenêtre jusqu'à 256K pour tâches de raisonnement soutenu.
FAQ
-
Gemma 4 est-elle open source ? Gemma 4 est publiée sous licence Apache 2.0.
-
Quelles tailles de modèles sont disponibles ? La famille inclut Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) et 31B Dense.
-
Gemma 4 supporte-t-elle l'usage d'outils pour agents ? Oui. Support natif function-calling, structured JSON output et native system instructions pour workflows agentiques.
-
Quels types d'entrées Gemma 4 peut-elle traiter ? Tous les modèles traitent nativement video and images. Les E2B et E4B supportent aussi native audio input pour reconnaissance et compréhension vocale.
-
Quelle taille de contexte peut-elle traiter ? Modèles edge avec fenêtre 128K, modèles plus grands jusqu'à 256K.
Alternatives
- Autres familles de LLM open-weight : Si vous avez principalement besoin d’un modèle open que vous pouvez exécuter localement, comparez Gemma 4 à d’autres familles de modèles de langage open-weight offrant différents niveaux de tailles et longueurs de contexte.
- Plateformes d’agents propriétaires basées sur le cloud : Si vous préférez des services managés pour l’exécution d’agents et l’orchestration d’outils plutôt que l’inférence locale, les offres cloud réduisent l’effort d’infrastructure, au prix d’exécuter les modèles à distance.
- Modèles multimodaux d’autres fournisseurs : Pour les besoins OCR/vidéo/graphiques + parole, comparez avec des familles de modèles multimodaux qui supportent explicitement les modalités que vous prévoyez d’utiliser (image/vidéo et audio).
- Frameworks d’orchestration de modèles (runtimes d’agents) : Si votre objectif principal est un appel d’outils fiable et des sorties structurées, envisagez des bibliothèques/frameworks d’orchestration d’agents compatibles avec plusieurs fournisseurs de modèles sous-jacents, y compris les modèles open.
Alternatives
AakarDev AI
AakarDev AI est une plateforme puissante qui simplifie le développement d'applications d'IA avec une intégration fluide des bases de données vectorielles, permettant un déploiement rapide et une évolutivité.
BenchSpan
BenchSpan exécute des benchmarks d’agents IA en parallèle, consigne scores et échecs dans un historique, et facilite la reproductibilité via des exécutions taguées par commit.
Edgee
Edgee est une passerelle d’IA native edge qui compresse les prompts avant les fournisseurs LLM. API compatible OpenAI pour router 200+ modèles.
LobeHub
LobeHub est une plateforme open-source conçue pour construire, déployer et collaborer avec des coéquipiers agents IA, fonctionnant comme une interface Web universelle pour LLM.
Claude Opus 4.5
Présentation du meilleur modèle au monde pour le codage, les agents, l'utilisation d'ordinateurs et les flux de travail d'entreprise.
Codex Plugins
Utilisez Codex Plugins pour regrouper des skills, intégrations d’app et serveurs MCP en workflows réutilisables afin d’étendre l’accès à Gmail, Google Drive et Slack.