L'IA embarquée est présente partout dans les systèmes industriels et grand public. Quel est votre niveau de connaissances des techniques et outils d'IA embarquée ? Répondez à ce quiz (7 questions seulement) pour le découvrir.
Question 1/7
Quel est la principale difficulté du déploiement d'applications d'IA sur des équipements embarqués ?
Question 2/7
Quelle est la principale différence entre l'IA embarquée et l'Edge AI ?
Question 4/7
Vous travaillez avec un microcontrôleur aux ressources limitées et devez déployer un modèle d'IA formé de manière efficace et dans un laps de temps réduit. Quelle est l’approche recommandée ?
Question 5/7
Vous souhaitez accélérer un modèle de Deep Learning pour un déploiement sur un GPU NVIDIA®. Qu’est-ce qu’une stratégie pratique ?
Question 6/7
Comment pouvez-vous importer un modèle PyTorch® ou TensorFlow™ entraîné dans MATLAB® pour un déploiement embarqué ?
Question 7/7
Quelle technique peut être utilisée pour réduire la taille des modèles d'IA en vue d'un déploiement embarqué ?
Votre score est de
%
Bon travail !
Découvrez-en davantage sur la modélisation, la simulation et le déploiement de l'IA sur les systèmes embarqués.
- MATLAB et Simulink pour l'IA embarquée - Présentation
Bien joué !
Découvrez-en davantage sur la modélisation, la simulation et le déploiement de l'IA sur les systèmes embarqués.
- MATLAB et Simulink pour l'IA embarquée - Présentation
Vous êtes fort !
Explorez des modèles d'IA préentraînés, une bibliothèque de vérification et des options de déploiement avec des ressources limitées.
- MATLAB et Simulink pour l'IA embarquée - Présentation
Corrigé
- Quel est la principale difficulté du déploiement d'applications d'IA sur des équipements embarqués ? Ressources de mémoire et de calcul limitées
- Quelle est la principale différence entre l'IA embarquée et l'Edge AI ? L'IA embarquée fonctionne sur du hardware dont les ressources sont limitées ; l'Edge AI peut inclure des équipements locaux plus puissants
- Qu'est-ce qui décrit le mieux l'objectif de tinyML ? Permettre aux équipements ayant des ressources limitées d'exploiter le Machine Learning
- Vous travaillez avec un microcontrôleur aux ressources limitées et devez déployer un modèle d'IA formé de manière efficace et dans un laps de temps réduit. Quelle est l’approche recommandée ? Utiliser un outil de génération de code (par exemple MATLAB Coder) pour générer automatiquement du code C ou C++ optimisé pour votre microcontrôleur
- Vous souhaitez accélérer un modèle de Deep Learning pour un déploiement sur un GPU NVIDIA. Qu’est-ce qu’une stratégie pratique ? Utiliser un outil qui génère du code CUDA ou déploie des modèles optimisés directement sur le GPU (par exemple GPU Coder ou TensorRT)
- Comment pouvez-vous importer un modèle PyTorch ou TensorFlow entraîné dans MATLAB pour un déploiement embarqué ? Utiliser les outils d'importation fournis par MATLAB pour convertir les modèles
- Quelle technique peut être utilisée pour réduire la taille des modèles d'IA en vue d'un déploiement embarqué ? La quantification
Sélectionner un site web
Choisissez un site web pour accéder au contenu traduit dans votre langue (lorsqu'il est disponible) et voir les événements et les offres locales. D’après votre position, nous vous recommandons de sélectionner la région suivante : .
Vous pouvez également sélectionner un site web dans la liste suivante :
Comment optimiser les performances du site
Pour optimiser les performances du site, sélectionnez la région Chine (en chinois ou en anglais). Les sites de MathWorks pour les autres pays ne sont pas optimisés pour les visites provenant de votre région.
Amériques
- América Latina (Español)
- Canada (English)
- United States (English)
Europe
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)