France
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

Ces intelligences artificielles conçues pour rassurer

"L’intelligence artificielle (IA), ça marche, mais on ne sait pas pourquoi ça marche". La formule revient souvent depuis une dizaine d'années et l’avènement des techniques d’apprentissage profond, qui ne sont pas les seules en IA mais restent les plus emblématiques. D’où l’émergence d’un certain malaise à voir de telles technologies se déployer. C’est dans ce contexte que s’est monté en janvier 2021 le consortium Confiance.AI, un programme de recherche sur quatre ans qui entre dans le cadre de la stratégie nationale pour l’intelligence artificielle lancée par le gouvernement français en 2018. Il regroupe des industriels (Airbus, Thalès, Renault…) et des organismes de recherche académiques (CEA, Inria, Instituts de recherche technologiques…) autour de cas d’usages.

Une série de projets étaient présentés les 5 et 6 octobre 2022 à CentraleSupélec sur le campus de Paris-Saclay. Soit un ensemble de méthodes, d’applications, de logiciels destinés à ajouter une couche de transparence, de sécurité ou d’explicabilité à une fonction d’intelligence artificielle. "Il faut sortir de la situation où une IA reconnaît un husky non pas pour ce qu’il est mais parce qu’il y a de la neige sur l’image. Mettez le husky sur une plage et l’IA ne sait plus ce que c’est", résume Bertrand Braunschweig, coordinateur scientifique de Confiance.AI, en citant un exemple fameux de mauvaise interprétation d'image.

Droit réduit à l'erreur

Toutes les applications d’intelligence artificielle ne sont pas concernées, mais bien celles où des vies humaines, des missions de défense, des transactions financières, par exemple, sont en jeu. "Il ne s’agit pas de créer des outils d’IA mais des outils pour des systèmes critiques industriels, où le droit à l’erreur doit être réduit", ajoute David Sadek, président du comité de direction du consortium et vice-président en charge de l’innovation et des technologies chez Thalès.

Un des projets concerne ainsi la question des "attaques adversaires", c’est-à-dire ces perturbations injectées dans une donnée, invisible ou pas gênante pour l’humain, mais capables de faire déraper une IA car celle-ci ne base pas sa compréhension sur les mêmes critères que nous. C’est l’exemple classique de quelques pixels ajoutés dans une image pour nuire à sa bonne interprétation par un algorithme de vision par ordinateur. Pour contrer ce genre de manœuvre, un outil scrute les fichiers, leurs luminosités, applique divers filtres, pour vérifier l’intégrité de la donnée.