Produits et Services

Deep Learning Toolbox Verification Library

Assurer la robustesse et la fiabilité des réseaux de neurones profonds

Alors que les réseaux de neurones profonds deviennent une composante des systèmes techniques, en particulier des applications où la sécurité est essentielle, il est crucial de garantir leur fiabilité et leur robustesse. Deep Learning Toolbox Verification Library vous permet d'évaluer et de tester rigoureusement les réseaux de neurones profonds.

Avec Deep Learning Toolbox Verification Library, vous pouvez :

  • Vérifier les propriétés de votre réseau de neurones profond, comme sa robustesse face aux exemples contradictoires
  • Estimer la sensibilité des prédictions de votre réseau aux perturbations en entrée
  • Créer un discriminateur de distribution, qui distingue les données appartenant ou non à la distribution, pour la surveillance d'exécution
  • Déployer un système de surveillance d'exécution qui contrôle les performances de votre réseau
  • Parcourir une étude de cas pour vérifier un système de Deep Learning aéroporté
Illustration d'une machine desktop utilisant l'informatique quantique avec MATLAB.

Vérifier la robustesse du réseau de neurones profond pour la classification

Renforcez la robustesse de votre réseau face aux exemples contradictoires (entrées subtilement modifiées destinées à induire le réseau en erreur) en utilisant des méthodes formelles. Cette approche permet de tester une collection infinie d'entrées, de prouver la cohérence des prédictions malgré les perturbations et d'orienter le renforcement de l'apprentissage afin d'améliorer la fiabilité et la précision du réseau.

Estimer les limites de sortie du réseau de neurones profond pour la régression

Estimez les limites de sortie inférieures et supérieures en fonction des plages d'entrée de votre réseau avec des méthodes formelles. Ce processus vous permet d'obtenir des informations sur les sorties potentielles du réseau pour des perturbations données en entrée, assurant ainsi une performance fiable dans des scénarios tels que les systèmes de contrôle ou le traitement du signal par exemple.

Développer des systèmes de Deep Learning sûrs avec surveillance d'exécution

Intégrez la surveillance d'exécution à la détection hors distribution pour développer des systèmes de Deep Learning sûrs. Évaluer en permanence si l’alignement des données d’entrée avec les données d'apprentissage peut vous aider à décider s'il faut faire confiance aux sorties du réseau ou les rediriger pour un traitement plus sûr afin d'améliorer la sécurité et la fiabilité du système.

Étude de cas : vérification d'un système de Deep Learning aéroporté

Explorez une étude de cas pour vérifier la conformité d’un système de Deep Learning aéroporté, aux normes de l'industrie aéronautique, telles que DO-178C, ARP4754A et aux directives prospectives de l'EASA et de la FAA. Cette étude de cas fournit une vue complète des étapes nécessaires pour garantir une conformité totale aux normes et directives de l'industrie pour les systèmes de Deep Learning.