Vous êtes ici : Accueil > IA de confiance : du nouveau dans la validation formelle des réseaux de neurones

Actualité

Ingénierie logiciel et système

IA de confiance : du nouveau dans la validation formelle des réseaux de neurones


​Les chercheurs du CEA–List, institut de CEA Tech, ont expérimenté une nouvelle approche pour la validation formelle des réseaux de neurones appliqués à la reconnaissance d'image. Leur objectif : rendre plus sûres des fonctionnalités comme la détection de piétons.

Publié le 22 septembre 2020

​Comment prouver qu'un réseau de neurones auquel on a « appris » à reconnaître un piéton est fiable ? La validation formelle des réseaux de neurones appliqués à la reconnaissance d'images, impérative dans les secteurs critiques, constituait un verrou technique majeur. Car avant de vérifier, par exemple, la capacité d'un véhicule à éviter efficacement tous les piétons, il faut savoir spécifier de manière non ambigüe ce qu'est un piéton.

Puisque décrire mathématiquement un piéton est impossible, les chercheurs du CEA-List ont eu l'idée de s'appuyer sur les générateurs d'images (appelés simulateurs) qui servent à « entraîner » les réseaux de neurones. Ce choix est d'autant plus intéressant que les simulateurs sont largement utilisés, notamment par les constructeurs automobiles, pour pallier le manque de données d'entraînement venant du monde réel. Les chercheurs ont ainsi proposé un nouveau formalisme de spécification qui intègre le simulateur au cœur du processus de validation, où il joue le rôle de spécification formelle des propriétés que le réseau de neurones doit satisfaire. Les méthodes d'analyse formelle classiques, expertise reconnue des équipes du CEA-List, peuvent ensuite être appliquées à ce dernier pour valider sa conformité.

Les résultats théoriques ont été publiés dans une conférence majeure en intelligence artificielle (European Conference on Artificial Intelligence -ECAI 2020) [1], et la preuve de concept a été réalisée avec succès sur un simulateur « réduit » spécialement conçu pour cet usage. Si la prochaine étape consiste à valider la théorie par un « passage à l'échelle », cette approche pionnière est une avancée importante et concrète vers l'IA de confiance.



[1] Girard-Satabin, J.; Charpiat, G.; Chihani, Z. & Schoenauer, M. "CAMUS: A Framework to Build Formal Specifications for Deep Perception Systems Using Simulators" ECAI 2020


Haut de page

Haut de page