Assurance qualité IA : vérification et validation au cœur de l'actualité
Des dispositions légales relatives à l'intelligence artificielle (IA) sont actuellement formulées dans le monde entier et les ingénieurs qui développent des systèmes compatibles avec l'IA doivent se conformer à ces spécifications et normes nouvellement introduites. En avril 2021, la Commission européenne a déjà présenté la première proposition de cadre juridique pour la réglementation de l'IA. Les systèmes d'IA devraient être évalués et réglementés différemment en fonction du risque qu'ils représentent pour les utilisateurs. En mai 2024, les États membres de l'UE ont finalement adopté l'AI Act - le premier cadre réglementaire global pour l'IA au monde.
Ces règles et réglementations ont un impact considérable, en particulier pour les systèmes critiques en termes de sécurité qui comportent des composants d'intelligence artificielle. Les techniques de V&V (vérification et validation) sont utilisées pour garantir que les sorties d'un modèle d'IA respectent les directives et les spécifications. La vérification consiste à vérifier qu'un modèle d'IA a été créé et développé conformément aux exigences spécifiées. La validation consiste à vérifier si le produit répond aux exigences et aux attentes du client. Les méthodes V&V permettent en outre une détection précoce des bugs et des stratégies de traitement des données déformées (data bias).
Christoph Stockhammer, Senior Application Engineer chez MathWorks, explique comment les ingénieurs peuvent mettre en place de tels processus de V&V et quels avantages ils apportent lors du développement de modèles d'IA dans des systèmes critiques pour la sécurité.
Vérification et validation : Pourquoi les systèmes d'IA en bénéficient-ils ?
L'un des avantages de l'utilisation de l'IA dans les systèmes critiques pour la sécurité réside dans le fait que les modèles d'IA permettent d'approximer les systèmes physiques et de valider la conception. Les ingénieurs simulent des systèmes avec des composants d'IA et testent, à l'aide des données, le comportement dans différents scénarios, y compris en cas d'événements aberrants. L'exécution de la R&D garantit qu'un système critique pour la sécurité basé sur l'IA peut maintenir le niveau requis de performances et de fonctionnalités dans différentes conditions.
La plupart des secteurs dans lesquels des produits contenant des composants d'IA sont développés obligent leurs ingénieurs à respecter des normes de sécurité avant que les produits ne soient mis sur le marché. Il s'agit notamment de l'industrie automobile et des véhicules, ainsi que de l'industrie aéronautique, spatiale et de la défense. Les processus de certification garantissent l'intégration de certains éléments dans ces produits. Les ingénieurs testent la fonctionnalité de ces éléments à l'aide de la V&V, ce qui leur permet d'obtenir plus facilement des certifications, voire de les obtenir tout court.
De la planification à la pratique : les éléments constitutifs des processus D+A
Lors de la réalisation de la R&D, les ingénieurs doivent s'assurer que le composant d'IA répond aux exigences spécifiées, qu'il reste fiable dans toutes les conditions de fonctionnement et qu'il est sûr et donc prêt à être utilisé. Le processus de V&V pour l'IA comprend la réalisation d'activités d'assurance logicielle. Il s'agit d'une combinaison d'analyses statiques et dynamiques, de tests, de méthodes formelles et de surveillance de l'exploitation en situation réelle. Les processus de R&D peuvent varier légèrement en fonction du secteur, mais ils comprennent toujours les mêmes étapes générales :
- Analyser le processus de prise de décision pour résoudre le problème de la boîte noire : Le problème de la boîte noire survient lorsque les ingénieurs ne peuvent pas comprendre comment un modèle d'IA prend des décisions. L'analyse de l'importance des caractéristiques évalue quelles variables d'entrée (par exemple, les facteurs environnementaux dans les systèmes critiques en matière de sécurité) influencent le plus les valeurs de sortie du modèle d'IA. Les techniques d'explicabilité aident à comprendre la logique de décision d'un modèle, par exemple en identifiant les zones des images qui contribuent le plus à la sortie du modèle. Ces deux approches favorisent la transparence et la confiance des ingénieurs et des scientifiques dans les systèmes d'IA.
- Tester le modèle sur des ensembles de données représentatifs : Les ingénieurs testent les modèles d'IA avec des ensembles de données représentatifs afin d'identifier les limitations et d'améliorer la fiabilité du modèle. Les données sont nettoyées et des cas de test sont développés pour évaluer des aspects tels que la précision et la reproductibilité. Enfin, le modèle est appliqué aux ensembles de données, les résultats sont enregistrés et comparés à la sortie attendue. La conception du modèle est améliorée en fonction des résultats des tests de données.
- Réalisation de simulations du système d'IA : Les simulations permettent aux ingénieurs d'évaluer les performances d'un système d'intelligence artificielle dans un environnement virtuel contrôlé. Des outils tels que Simulink® aident à analyser le comportement du système sous différents scénarios, paramètres et facteurs environnementaux. Comme pour les tests de données, les résultats des simulations sont comparés aux résultats attendus ou connus et le modèle est amélioré de manière itérative.
- Garantir le fonctionnement du modèle dans des limites acceptables : Pour faire fonctionner les modèles d'IA de manière sûre et fiable, il faut définir des limites et surveiller leur comportement. L'un des problèmes les plus fréquents avec les limites survient lorsqu'un modèle a été entraîné avec un ensemble de données spécifique et reçoit en entrée, au moment de l'exécution, des données ne faisant pas partie de la distribution de cet ensemble de données. Les modèles sont entraînés à l'aide de l'augmentation des données (p. ex. variabilité due aux différentes perspectives des images) et de l'équilibrage des données (répartition uniforme des classes de données) afin de réduire les distorsions et d'augmenter la capacité de généralisation. Pour rendre les réseaux neuronaux plus robustes et moins vulnérables aux erreurs de classification, des modèles mathématiques rigoureux peuvent être intégrés au processus de développement et de validation afin de démontrer certaines propriétés souhaitables des réseaux neuronaux.
Ces étapes du processus de R&D sont itératives et permettent d'affiner et d'améliorer continuellement le système d'IA au fur et à mesure que les ingénieurs collectent de nouvelles données, acquièrent de nouvelles perspectives et intègrent le feedback de l'entreprise.
Conclusion : la R&D, clé d'une utilisation responsable de l'IA
À l'ère des systèmes de sécurité critiques basés sur l'IA, les procédures de R&D jouent un rôle crucial dans l'obtention de certifications sectorielles et la conformité aux réglementations. La construction et la maintenance de systèmes fiables nécessitent l'utilisation de techniques de vérification qui fournissent une explication et une transparence des modèles d'IA sur lesquels ces systèmes sont basés. Cela permet de garantir une utilisation transparente et responsable de l'IA pour les systèmes critiques en termes de sécurité.
Auteur
Christoph Stockhammer - Ingénieur d'application senior chez MathWorks
Source : www.mathworks.com
Cet article est paru initialement sur m-q.ch - https://www.m-q.ch/de/ki-qualitaetssicherung-verifikation-und-validierung-am-puls-der-zeit/