UStackUStack
Gemma 4 icon

Gemma 4

Gemma 4 est une famille de modèles open conçue pour le raisonnement avancé et des workflows agentiques, avec tailles adaptées au local/edge.

Gemma 4

Qu'est-ce que Gemma 4 ?

Gemma 4 est une famille de modèles open conçue pour fonctionner sur une gamme de matériel de développement et edge. Elle vise le raisonnement avancé et les « workflows agentiques », au-delà du chat basique pour supporter des tâches nécessitant une logique multi-étapes et l'usage d'outils.

Gemma 4 est publiée sous licence Apache 2.0 et complète les modèles Gemini de Google en offrant aux développeurs une option open-model exécutable localement et affinable pour leurs tâches.

Fonctionnalités clés

  • Tailles multiples pour différents matériels : Gemma 4 est disponible en quatre tailles — Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) et 31B Dense — pour choisir capacité vs besoins d'exécution.
  • Support des workflows agentiques : Support natif pour function-calling, structured JSON output et native system instructions afin de créer des agents interagissant avec outils et API.
  • Raisonnement avancé : Améliorations démontrées sur benchmarks maths et suivi d'instructions nécessitant planification multi-étapes et logique approfondie.
  • Génération de code pour usage local : Supporte la génération de offline code de haute qualité, pour un workflow d'assistant code AI local-first.
  • Entrées multimodales (vidéo, images et audio sur tailles edge) : Tous les modèles traitent nativement video and images pour OCR et compréhension de graphiques ; les modèles E2B et E4B incluent aussi native audio input pour reconnaissance et compréhension vocale.
  • Traitement long-context : Modèles edge avec fenêtre de 128K context, modèles plus grands jusqu'à 256K, pour prompts incluant documents ou dépôts longs.
  • Capacités multilingues : Entraînée nativement sur plus de 140 langues pour développement d'applications multi-langues.

Comment utiliser Gemma 4

  1. Choisir une taille adaptée à votre matériel et besoins de latence (E2B/E4B pour usage edge/local multimodal ; 26B/31B pour raisonnement plus performant sur GPU/stations adaptées).
  2. Exécuter les poids du modèle localement et l'intégrer à votre workflow applicatif.
  3. Affiner sur vos tâches pour performances spécifiques ; Gemma 4 est dimensionnée pour exécution et affinage efficaces sur matériel.
  4. Utiliser les capacités comme function-calling et structured JSON outputs pour flows agentiques appelant outils et produisant résultats lisibles machine.

Cas d'usage

  • Construire un agent autonome utilisant des outils : Utiliser function-calling + structured JSON output pour exécuter workflows multi-étapes interagissant avec outils ou API externes.
  • Assistant code local-first : Exécuter Gemma 4 offline sur station pour génération de code sans inférence distante, et structurer réponses pour workflows développeurs.
  • OCR et compréhension de graphiques dans documents : Envoyer images (et contenu vidéo) au modèle adapté pour extraire texte via OCR ou interpréter graphiques.
  • Applications edge avec voix : Utiliser E2B ou E4B avec native audio input pour reconnaissance et compréhension vocale en faible latence.
  • Analyse de documents long-form : Fournir documents ou contextes dépôts à modèles avec fenêtre jusqu'à 256K pour tâches de raisonnement soutenu.

FAQ

  • Gemma 4 est-elle open source ? Gemma 4 est publiée sous licence Apache 2.0.

  • Quelles tailles de modèles sont disponibles ? La famille inclut Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) et 31B Dense.

  • Gemma 4 supporte-t-elle l'usage d'outils pour agents ? Oui. Support natif function-calling, structured JSON output et native system instructions pour workflows agentiques.

  • Quels types d'entrées Gemma 4 peut-elle traiter ? Tous les modèles traitent nativement video and images. Les E2B et E4B supportent aussi native audio input pour reconnaissance et compréhension vocale.

  • Quelle taille de contexte peut-elle traiter ? Modèles edge avec fenêtre 128K, modèles plus grands jusqu'à 256K.

Alternatives

  • Autres familles de LLM open-weight : Si vous avez principalement besoin d’un modèle open que vous pouvez exécuter localement, comparez Gemma 4 à d’autres familles de modèles de langage open-weight offrant différents niveaux de tailles et longueurs de contexte.
  • Plateformes d’agents propriétaires basées sur le cloud : Si vous préférez des services managés pour l’exécution d’agents et l’orchestration d’outils plutôt que l’inférence locale, les offres cloud réduisent l’effort d’infrastructure, au prix d’exécuter les modèles à distance.
  • Modèles multimodaux d’autres fournisseurs : Pour les besoins OCR/vidéo/graphiques + parole, comparez avec des familles de modèles multimodaux qui supportent explicitement les modalités que vous prévoyez d’utiliser (image/vidéo et audio).
  • Frameworks d’orchestration de modèles (runtimes d’agents) : Si votre objectif principal est un appel d’outils fiable et des sorties structurées, envisagez des bibliothèques/frameworks d’orchestration d’agents compatibles avec plusieurs fournisseurs de modèles sous-jacents, y compris les modèles open.
Gemma 4 | UStack