Alors que les modèles d'IA deviennent une composante des systèmes techniques, en particulier des applications où la sécurité est essentielle, il est crucial de garantir leur fiabilité et leur robustesse. AI Verification Library for Deep Learning Toolbox vous permet d'évaluer et de tester rigoureusement les modèles d'IA.
Avec AI Verification Library, vous pouvez :
- Vérifier les propriétés de votre modèle d'IA, par exemple sa robustesse face aux exemples contradictoires
- Estimer la sensibilité des prédictions de votre modèle d'IA aux perturbations en entrée
- Créer un discriminateur de distribution, qui distingue les données appartenant ou non à la distribution, pour la surveillance d'exécution
- Déployer un système de surveillance d'exécution qui contrôle les performances de votre modèle d'IA
- Parcourir une étude de cas pour vérifier un système de Deep Learning aéroporté
En quoi consiste la vérification de l'IA ?
Les workflows traditionnels de vérification et de validation (V&V), tels que le cycle en V, s'avèrent souvent insuffisants pour les modèles d'IA. La vérification de l'IA implique d'effectuer des tests rigoureux pour garantir les comportements souhaités et éviter ceux qui ne le sont pas. Des adaptations telles que le processus de développement en W améliorent la robustesse et la sécurité en traitant les entrées contradictoires, la détection hors distribution, l'estimation de l'incertitude et la vérification des propriétés du réseau.
Vérifier un système de Deep Learning aéroporté (étude de cas)
Explorez une étude de cas pour vérifier la conformité d’un système de Deep Learning aéroporté, aux normes de l'industrie aéronautique, telles que DO-178C, ARP4754A et aux directives prospectives de l'EASA et de la FAA. Cette étude de cas présente une vue complète des étapes nécessaires pour garantir une conformité totale aux normes et directives de l'industrie pour un système de Deep Learning.
Vérifier la robustesse du réseau de neurones profond pour la classification
Renforcez la robustesse de votre réseau face aux exemples contradictoires (entrées subtilement modifiées destinées à induire le réseau en erreur) en utilisant des méthodes formelles. Cette approche permet de tester une collection infinie d'entrées, de prouver la cohérence des prédictions malgré les perturbations et d'orienter le renforcement de l'apprentissage afin d'améliorer la fiabilité et la précision du réseau.
Estimer les limites de sortie du réseau de neurones profond pour la régression
Estimez la limite de sortie supérieure de votre réseau en fonction des plages d'entrée en utilisant des méthodes formelles. Ce processus vous permet d'obtenir des informations sur les sorties potentielles du réseau pour des perturbations données en entrée, assurant ainsi une performance fiable dans des scénarios tels que les systèmes de contrôle ou le traitement du signal par exemple.
Développer des systèmes de Deep Learning sûrs avec surveillance d'exécution
Intégrez la surveillance d'exécution à la détection hors distribution pour développer des systèmes de Deep Learning sûrs. Évaluer en permanence si l’alignement des données d’entrée avec les données d'apprentissage peut vous aider à décider s'il faut faire confiance aux sorties du réseau ou les rediriger pour un traitement plus sûr afin d'améliorer la sécurité et la fiabilité du système.
Utiliser des techniques d'explicabilité
Explorez le processus de prise de décision de votre réseau en utilisant des techniques d’explicabilité. Utilisez des méthodes comme l’échantillonnage aléatoire d’entrées du détecteur, afin que l’algorithme d’explication (D-RISE) permette aux détecteurs d’objet de calculer des cartes de saillance et également de visualiser les régions spécifiques dans les données d’entrée qui influencent le plus les prédictions du réseau.
Intégrer le Deep Learning sous contraintes
Le Deep Learning sous contraintes est une approche avancée de l’apprentissage des réseaux de neurones profonds dans laquelle sont incluses des contraintes spécifiques à un domaine dans le processus d’apprentissage. En intégrant ces contraintes dans la construction et l’apprentissage des réseaux de neurones, vous obtiendrez les comportements désirés pour les scénarios où la sécurité est un aspect primordial.