Alors que les réseaux de neurones profonds deviennent une composante des systèmes techniques, en particulier des applications où la sécurité est essentielle, il est crucial de garantir leur fiabilité et leur robustesse. Deep Learning Toolbox Verification Library vous permet d'évaluer et de tester rigoureusement les réseaux de neurones profonds.
Avec Deep Learning Toolbox Verification Library, vous pouvez :
- Vérifier les propriétés de votre réseau de neurones profond, comme sa robustesse face aux exemples contradictoires
- Estimer la sensibilité des prédictions de votre réseau aux perturbations en entrée
- Créer un discriminateur de distribution, qui distingue les données appartenant ou non à la distribution, pour la surveillance d'exécution
- Déployer un système de surveillance d'exécution qui contrôle les performances de votre réseau
- Parcourir une étude de cas pour vérifier un système de Deep Learning aéroporté
Vérifier la robustesse du réseau de neurones profond pour la classification
Renforcez la robustesse de votre réseau face aux exemples contradictoires (entrées subtilement modifiées destinées à induire le réseau en erreur) en utilisant des méthodes formelles. Cette approche permet de tester une collection infinie d'entrées, de prouver la cohérence des prédictions malgré les perturbations et d'orienter le renforcement de l'apprentissage afin d'améliorer la fiabilité et la précision du réseau.
Estimer les limites de sortie du réseau de neurones profond pour la régression
Estimez les limites de sortie inférieures et supérieures en fonction des plages d'entrée de votre réseau avec des méthodes formelles. Ce processus vous permet d'obtenir des informations sur les sorties potentielles du réseau pour des perturbations données en entrée, assurant ainsi une performance fiable dans des scénarios tels que les systèmes de contrôle ou le traitement du signal par exemple.
Développer des systèmes de Deep Learning sûrs avec surveillance d'exécution
Intégrez la surveillance d'exécution à la détection hors distribution pour développer des systèmes de Deep Learning sûrs. Évaluer en permanence si l’alignement des données d’entrée avec les données d'apprentissage peut vous aider à décider s'il faut faire confiance aux sorties du réseau ou les rediriger pour un traitement plus sûr afin d'améliorer la sécurité et la fiabilité du système.
Étude de cas : vérification d'un système de Deep Learning aéroporté
Explorez une étude de cas pour vérifier la conformité d’un système de Deep Learning aéroporté, aux normes de l'industrie aéronautique, telles que DO-178C, ARP4754A et aux directives prospectives de l'EASA et de la FAA. Cette étude de cas fournit une vue complète des étapes nécessaires pour garantir une conformité totale aux normes et directives de l'industrie pour les systèmes de Deep Learning.
Constrained Deep Learning
Le Constrained Deep Learning est une approche avancée de l’apprentissage des réseaux de neurones profonds dans laquelle sont incluses des contraintes spécifiques à un domaine dans le processus d’apprentissage. En intégrant ces contraintes dans la construction et l’apprentissage des réseaux de neurones, vous obtiendrez les comportements désirés pour les scénarios où la sécurité est un aspect primordial.
Explicabilité
Explorez le processus de prise de décision de votre réseau en utilisant des techniques d’explicabilité. Utilisez des méthodes comme l’échantillonnage aléatoire d’entrées du détecteur, afin que l’algorithme d’explication (D-RISE) permette aux détecteurs d’objet de calculer des cartes de saillance et également de visualiser les régions spécifiques dans les données d’entrée qui influencent le plus les prédictions du réseau.