Et l’Union européenne réglementa

La Commission européenne vient de dévoiler un ambitieux projet de régulation de l’intelligence artificielle qui ne fait pas du tout l’unanimité.

Boîte noire
4 min readMay 3, 2021
Margrethe Vestager, commissaire européen à la société numérique

∎ Le 21 avril dernier, la Commission européenne a révélé sa « Proposition de régulation posant des règles harmonisées sur l’intelligence artificielle » ou « Artificial Intelligence Act » en la présentant fièrement comme « le tout premier cadre juridique sur l’IA ». Objectifs : « aborder les risques de l’intelligence artificielle et positionner l’Europe dans un rôle essentiel au niveau global. » Comme le fait remarquer Benedict Evans, nous sommes au début d’un processus de débat, de lobbying et d’amendement qui va durer plusieurs années. Car pour le moment, le texte est loin de faire l’unanimité.

∎ Définition. L’Artificial Intelligence Act définit les « techniques et approches de l’intelligence artificielle » assez justement. Le machine learning et toutes ses variantes supervisées et non-supervisées sont prises en compte, tout comme les approches logiques mais aussi statistiques. Les petits malins qui se plaisent à répéter que le machine learning est seulement de la statistique apprécient sans doute beaucoup.

∎ Risque inacceptable. Ces définitions posées, la Commission européenne propose de classer les technologies intelligentes selon trois catégories de risque : bas ou minimal, haut, inacceptable. L’Artificial Intelligence Act entend interdire purement et simplement les entités qui appartiennent à cette dernière catégorie, dans laquelle on trouve notamment les systèmes de reconnaissance faciale en temps réel dans les lieux publics et ceux qui utilisent des « techniques subliminales » pour manipuler les êtres humains.

∎ Haut risque. Sont considérées comme « hautement risqués » les systèmes qui peuvent porter atteinte à la société, à la sécurité et aux droits individuels. Comprendre : les voitures autonomes, les machines impliquées dans le recrutement, l’éducation ou la justice, les systèmes de contrôle des infrastructures… L’Artificial Intelligence Act veut que chacun de ces algorithmes suive des procédures de mise en conformité avant leur potentielle mise sur le marché. Les entreprises contrevenantes encourraient des amendes inférieures ou égales à 6% de leur revenus.

∎ Soyez gentil. Les systèmes à risque bas ou minimal — désignés comme « autres » dans le texte — seront tenus de dévoiler leur nature à leurs utilisateurs. « Quand des individus interagissent avec un système intelligent ou que leurs émotions ou caractéristiques sont reconnues par des méthodes automatiques, ils doivent en être informés, affirme la Commission européenne. Si un système d’IA est utilisé pour générer ou manipuler une image, une vidéo ou un contenu audio qui ressemble manifestement à du contenu authentique, il devrait être obligatoire de révéler que ce contenu a été généré de façon automatique ». Fastoche.

∎ Nouvelle autorité. L’Artificial Intelligence Act propose la mise en place d’un « Conseil Européen de l’Intelligence Artificielle ». Cet organisme auquel tous les États membres seront supposés répondre « devra être responsable d’un certain nombre de tâches consultatives, notamment prononcer des opinions, des recommandations, des conseils et des directions » au sujet du texte légal lui-même. Les responsables du Conseil auront vraisemblablement une influence sur les mécanismes de la classification par risque des systèmes intelligents.

∎ Belle initiative. L’Artificial Intelligence Act est bel et bien le projet de législation de l’intelligence artificielle le plus ambitieux au monde à l’heure actuelle. Le moment est plutôt bien choisi : en Europe comme en Russie, aux États-Unis comme en Chine, les systèmes intelligents progressent dans les institutions et rongent inexorablement les droits et les libertés individuelles. Cette tendance doit être endiguée. Il est grand temps d’empêcher la RATP de braquer des caméras de reconnaissance faciale un peu partout dans son réseau, par exemple.

∎ GAFAM. Sans surprise, la première mouture de l’Artificial Intelligence Act est loin de faire l’unanimité. Du côté des professionnels du numérique, le texte passe pour un gloubiboulga mal informé : « Tout comme le RGPD, il contient des idées très étranges au sujet de la technologie et de l’industrie qui suggèrent que ses auteurs n’ont jamais vraiment écouté quiconque dans le marché qu’ils entendent réguler, étrille Benedict Evans, et cela entraînera beaucoup de conséquences malencontreuses. » De nombreuses incertitudes planent au-dessus des GAFAM : du fait de ses algorithmes de recommandation, le projet de plateforme « instagramesque » pour enfants de Facebook pourrait-il être considéré comme un système à risque inacceptable ? Nul ne le sait.

∎ Activistes. Les activistes de tout bord font également le gros dos face au texte. Leurs remontrances semblent légitimes : tout en réclamant l’interdiction totale des systèmes de reconnaissance faciale, l’Artificial Intelligence Act dresse une liste d’exceptions assez surprenantes. Les caméras intelligentes pourraient être utilisées pour rechercher des victimes potentielles, « notamment des enfants disparus », identifier des « menaces à la vie ou la sécurité physique des personnes naturelles » ou détecter, localiser et poursuivre les perpétrateurs ou les suspects de crimes passibles d’au moins trois ans d’emprisonnement. Force est de reconnaître que ça fait beaucoup de trous.

Boîte Noire est la newsletter hebdomadaire sur l’intelligence artificielle de Sébastien Wesolowski. Inscrivez-vous par ici : http://eepurl.com/hivYvT

--

--

Boîte noire
Boîte noire

Written by Boîte noire

Boîte Noire est une newsletter hebdomadaire sur l’intelligence artificielle. Inscrivez-vous par ici : http://eepurl.com/hivYvT

No responses yet