UStackUStack
Arduino VENTUNO Q icon

Arduino VENTUNO Q

Arduino VENTUNO Q : ordinateur edge IA pour la robotique, combinant inférence accélérée et microcontrôleur pour un contrôle déterministe. Arduino App Lab.

Arduino VENTUNO Q

Qu'est-ce que l'Arduino VENTUNO Q ?

L'Arduino VENTUNO Q est un ordinateur edge IA conçu pour intégrer perception IA, prise de décision et contrôle en temps réel sur une seule carte, pour la robotique et d'autres systèmes physiques. Son objectif est de réduire la complexité des configurations multi-appareils en combinant calcul IA accéléré et couche d'action centrée sur un microcontrôleur.

La plateforme repose sur une architecture à double cerveau : un cerveau IA pour exécuter l'inférence de réseaux de neurones et un cerveau d'action pour des réponses déterministes en moins d'une milliseconde. Elle gère les workflows de développement via Arduino App Lab, un environnement unifié couvrant programmation embarquée, développement Linux et IA edge.

Fonctionnalités clés

  • Architecture double cerveau accélérée (IA + action sur une seule carte) : Combine un Qualcomm Dragonwing™ IQ8 et un microcontrôleur STM32H5 avec un pont RPC (Remote Procedure Call) pour coordonner perception, décisions et actionnement.
  • Processeur Dragonwing IQ-8275 pour inférence edge : Fournit des capacités NPU, CPU et GPU pour déployer des modèles de vision, LLMs et IA multimodale en edge.
  • Microcontrôleur STM32H5F5 pour contrôle déterministe : Prend en charge des réponses en moins d'une milliseconde pour un contrôle robotique stable et déterministe, systèmes de mouvement et interfaces industrielles.
  • Stockage industriel (eMMC) : Utilise un stockage eMMC pour l'OS, les frameworks, modèles et données, pour une utilisation en conditions réelles.
  • Expérience de développement unifiée via Arduino App Lab : Permet de travailler avec sketches Arduino, scripts Python et modèles IA dans un environnement cohérent reliant embarqué et Linux.
  • Activation de modèles IA et options hors ligne : Inclut des modèles optimisés pour la NPU intégrée via Edge Impulse et Qualcomm® AI Hub, avec exemples comme LLMs locaux (Qwen), VLMs locaux, TTS/ASR (Melo TTS, Whisper) et workflows de vision par ordinateur (ex. : reconnaissance de gestes MediaPipe, suivi d'objets YOLO-X, détection de poses PoseNet).
  • Support robotique dans la pile logicielle : Prend en charge ROS 2 pour le développement robotique temps réel et inclut des « Bricks » robotique dans Arduino App Lab pour une fonctionnalité réutilisable.

Comment utiliser l'Arduino VENTUNO Q

  1. Choisir un mode de configuration : Utilisez VENTUNO Q comme ordinateur monocarte en ajoutant un moniteur, clavier et souris pour lancer Arduino App Lab sur un bureau Linux, ou connectez-le à un ordinateur portable/bureau via USB-C ou une connexion réseau pour exécuter Arduino App Lab sur votre PC.
  2. Développer dans Arduino App Lab : Créez de la logique embarquée avec des sketches Arduino, exécutez des scripts Python si nécessaire, et travaillez avec des modèles IA dans le même environnement.
  3. Sélectionner des blocs IA prêts à l'emploi : Partez de modèles et exemples IA disponibles optimisés pour la NPU intégrée de VENTUNO Q, ou personnalisez selon vos besoins spécifiques.
  4. Intégrer des composants robotiques (le cas échéant) : Pour les projets robotiques, utilisez les Bricks robotique d'Arduino App Lab et la compatibilité ROS 2 pour connecter détection, traitement IA et contrôle de mouvement temps réel.

Cas d'usage

  • Assistants IA hors ligne sur appareil : Créez des assistants IA entièrement hors ligne pour des scénarios évitant la dépendance cloud et la transmission de données (ex. : bornes intelligentes, assistants santé, analyse de flux de circulation).
  • Perception robotique et actionnement déterministe : Combinez vision et détection IA edge pour la conscience environnementale avec contrôle moteur déterministe pour manipulation et navigation précises.
  • Interaction temps réel pour systèmes homme-robot : Utilisez des workflows de reconnaissance de gestes (MediaPipe) pour interfaces sans contact et interaction homme-robot.
  • Vision par ordinateur pour suivi et surveillance : Appliquez le suivi d'objets (YOLO-X) pour traquer personnes, véhicules ou objets en temps réel sur plusieurs vues caméra, ou utilisez la détection de poses (PoseNet) pour analyse de mouvements.
  • Prototypage éducation et recherche : Utilisez la plateforme pour prototyper algorithmes, publier résultats de recherche et enseigner concepts avancés IA et robotique avec un setup edge unifié.

FAQ

L'Arduino VENTUNO Q exécute-t-il les modèles IA localement ?
La page décrit des options locales, sur l'appareil, telles que « Local LLMs » (Qwen) et « Local VLMs », ainsi que des workflows TTS/ASR hors ligne avec Melo TTS et Whisper.

Quels environnements de programmation Arduino App Lab prend-il en charge sur VENTUNO Q ?
Arduino App Lab prend en charge les Arduino sketches, les scripts Python et les modèles IA dans un environnement cohérent.

Comment la carte gère-t-elle l'IA et le contrôle temps réel ensemble ?
Elle utilise une architecture double cerveau : le Qualcomm Dragonwing IQ8 pour les calculs IA (NPU/CPU/GPU) et le microcontrôleur STM32H5 pour des réponses déterministes en moins d'une milliseconde, coordonnés via un pont RPC.

ROS 2 est-il pris en charge pour le développement robotique ?
Oui. La page produit indique que VENTUNO Q prend en charge ROS 2.

Puis-je utiliser Arduino App Lab sur un PC au lieu de l'écran de la carte ?
Oui. La page décrit un mode de configuration basé sur PC où VENTUNO Q se connecte à un ordinateur portable/bureau via USB-C ou connexion réseau et Arduino App Lab s'exécute sur votre PC.

Alternatives

  • Cartes de développement edge IA polyvalentes (systèmes GPU/NPU) : Elles peuvent exécuter des charges vision et LLM, mais ne proposent pas toujours la même intégration entre un processeur de calcul IA et un microcontrôleur conçu pour un contrôle déterministe en moins d'une milliseconde.
  • Contrôleurs robotiques centrés sur microcontrôleur (MCU avec calcul IA externe) : Adaptés à l'actionnement temps réel, mais la perception IA s'exécute généralement sur un ordinateur compagnon séparé plutôt que sur une carte unifiée.
  • Kits de développement robotique centrés uniquement sur ROS 2 : Utiles si vous avez principalement besoin d'un workflow ROS 2, mais ils manquent souvent de la configuration « double cerveau » sur une seule carte avec edge IA + contrôle déterministe décrite pour VENTUNO Q.
  • Plateformes edge IA axées sur le déploiement de modèles (sans pile de contrôle robotique unifiée) : Elles simplifient le déploiement d'inférence, mais nécessitent souvent un travail d'intégration supplémentaire pour le contrôle de mouvement déterministe et les interfaces de type GPIO/PWM/CAN-fd.