Deep Learning

MATLAB et Simulink pour l'Edge AI

Déployer des applications de Machine Learning et de Deep Learning sur des systèmes embarqués

Simulez, testez et déployez des modèles de Machine Learning et de Deep Learning sur des dispositifs périphériques et des systèmes embarqués. Générez du code pour des applications d'IA complètes, comprenant des algorithmes de pré-traitement et de post-traitement.

Avec MATLAB® et Simulink®, vous pouvez :

  • Générer du code C/C++ et CUDA optimisé pour le déploiement sur des CPU et GPU
  • Générer du code Verilog et VHDL synthétisable pour le déploiement sur des FPGA et des SoC
  • Accélérer l'inférence avec des bibliothèques de Deep Learning optimisées pour le hardware, notamment OneDNN, Arm Compute Library et TensorRT
  • Intégrer des modèles TensorFlow Lite (TFLite) pré-entraînés dans des applications déployées sur du hardware
  • Compresser les modèles d'IA pour l'inférence sur du hardware à ressources limitées avec des outils pour le réglage des hyperparamètres, la quantification et l'élagage de réseaux.

« De l'annotation des données au choix de notre modèle de Deep Learning suivi de l’apprentissage, des tests et de l'ajustement du modèle, MATLAB disposait de tous les outils dont nous avions besoin, et GPU Coder nous a permis un déploiement rapide sur nos GPU NVIDIA, malgré notre expérience limitée. »

Valerio Imbriolo, Drass Group
Capture d'écran de code C/C++ déployé sur une image d'un hardware embarqué.

CPU et microcontrôleurs

Générez du code C/C++ portable et optimisé à partir de modèles de Machine Learning et de Deep Learning entraînés avec MATLAB Coder™ et Simulink Coder™. Vous pouvez également inclure des appels vers des bibliothèques (propres à un fournisseur) optimisées pour l'inférence du Deep Learning dans le code généré, comme oneDNN et Arm® Compute Library.

Capture d'écran de code C/C++ dans Simulink déployé sur des images d'un GPU embarqué et desktop NVIDIA.

GPU

Générez du code CUDA® optimisé pour les réseaux de Deep Learning entraînés avec GPU Coder™. Ajoutez le pré-traitement et le post-traitement à vos réseaux pour déployer des algorithmes complets sur des PC, des serveurs et des GPU embarqués. Utilisez les bibliothèques NVIDIA® CUDA, telles que TensorRT™ et cuDNN, pour optimiser les performances.

Exécution d'une inférence de Deep Learning basée sur FPGA sur un hardware de prototypage depuis MATLAB, puis génération d'un cœur IP HDL de Deep Learning en vue d'un déploiement sur n'importe quel FPGA ou ASIC.

SoC et FPGA

Prototypez et implémentez des réseaux de Deep Learning sur des FPGA et des SoC grâce à Deep Learning HDL Toolbox™. Programmez des processeurs de Deep Learning et des cœurs IP de mouvement de données avec des bitstreams prédéfinis pour les kits de développement FPGA les plus populaires. Générez des bitstreams et des cœurs IP de processeur de Deep Learning personnalisés avec HDL Coder™.

Capture d'écran d'un graphe multicouche, de statistiques de calibrage et de résultats de validation afin d'optimiser les modèles d'IA pour un déploiement embarqué.

Compression d'un modèle d'IA

Réduisez les besoins en mémoire pour les modèles de Machine Learning et de Deep Learning grâce au réglage des hyperparamètres et à la quantification des poids, des biais et des activations. Réduisez la taille des réseaux de neurones profonds en élaguant les connexions de couche négligeables.