Intelligence artificielle (IA) : la CNIL publie un plan d’action

L’intelligence artificielle (IA) connaît un regain d’intérêt depuis quelques mois, en raison de la mise en ligne de certains outils comme ChatGPT, Bard, Dall-E, etc. Cela a amené la CNIL à publier, le 16 mai 2023, son plan d’action pour le déploiement de systèmes d’IA respectueux de la vie privée. Focus.

L’intelligence artificielle (IA) connaît un regain d’intérêt depuis quelques mois, en raison de la mise en ligne de certains outils comme ChatGPT, Bard, Dall-E, etc. Cela a amené la CNIL à publier, le 16 mai 2023, son plan d’action pour le déploiement de systèmes d’IA respectueux de la vie privée. Focus.

Intelligence artificielle (IA) : le plan d’action de la CNIL comporte 4 volets

Depuis quelques mois, l’intelligence artificielle (IA) dite « générative » connait un grand développement avec l’apparition d’outils tels que ChatGPT, Bard, Dall-E, Midjourney, Vall-E, etc.

Pour la petite histoire, sachez que l’IA générative est un système qui crée du texte, des images ou d’autres contenus (musique, vidéo, voix, etc.) à partir d’une instruction d’un utilisateur humain (le « prompt engineering »).

L’intérêt pour l’IA générative a amené la CNIL à publier un plan d’action, en attendant l’adoption d’un accord européen sur le sujet (le projet de règlement européen dit « IA Act », actuellement en discussion).

Ce plan s’articule autour de 4 axes :

  • Axe 1 : appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes ;
  • Axe 2 : permettre et encadrer le développement d’IA respectueuses des données personnelles ;
  • Axe 3 : fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe ;
  • Axe 4 : auditer et contrôler les systèmes d’IA et protéger les personnes.

L’axe 1 doit amener les particuliers et les professionnels à se poser des questions sur la protection des données, notamment :

  • la loyauté et la transparence des traitements de données sous-jacents au fonctionnement de ces outils ;
  • la protection des données publiquement accessibles sur le Web face à l’utilisation du moissonnage de données pour la conception des outils ;
  • la protection des données transmises par les utilisateurs lorsqu’ils utilisent ces outils, allant de leur collecte (via une interface) à leur éventuelle réutilisation, en passant par leur traitement par les algorithmes d’apprentissage automatique ;
  • les conséquences sur les droits des personnes sur leurs données, tant en ce qui concerne celles collectées pour l’apprentissage de modèles que celles qui peuvent être fournies par ces systèmes ;
  • la protection contre les biais et les discriminations susceptibles de survenir ;
  • les enjeux de sécurité inédits de ces outils.

Ces questions sont envisagées par le laboratoire d’innovation numérique de la CNIL (LINC). Notez que le LINC a notamment publié un dossier sur l’IA générative pour mieux comprendre les enjeux spécifiques de ces systèmes.

L’axe 2 vise à anticiper l’application de l’IA Act et à préparer les entreprises et les particuliers à l’impact des systèmes d’IA dans les années à venir. À cet effet, la CNIL a déjà publié des fiches pédagogiques sur le sujet et continuera à publier des documents dans les mois et années à venir.

L’axe 3 se matérialise déjà concrètement par 3 mesures :

  • la création d’un « bac à sable » pour accompagner les projets innovants depuis 2021 ;
  • la création d’un programme d’accompagnement spécifique des fournisseurs de vidéosurveillance « augmentée » dans le cadre des Jeux olympiques de 2024 ;
  • la création d’un programme « d’accompagnement renforcé » pour assister les entreprises innovantes dans leur conformité au RGPD.

Par ailleurs, la CNIL se tient à disposition des entreprises qui souhaitent développer des systèmes d’IA dans une logique de protection des données personnelles. Pour se faire, il est possible de la contacter à l’adresse ia@cnil.fr.

Enfin, l’axe 4 vise à doter la CNIL d’un outillage lui permettant d’auditer les systèmes d’IA. À ce propos, sachez que le LINC a publié un dossier sur les solutions d’audit algorithmique.

Durant l’année 2023, la CNIL va mener des actions concernant :

  • le respect, par les entreprises, de sa position sur l’usage de la vidéosurveillance « augmentée » ;
  • l’usage de l’IA pour lutter contre la fraude (par exemple la fraude à l’assurance sociale), au regard des enjeux liés à l’usage de tels algorithmes ;
  • l’instruction de plaintes déposées auprès de ses services.

Intelligence artificielle (IA) : la CNIL publie un plan d’action – © Copyright WebLex