L’Europe s’engage pour une intelligence artificielle « de confiance »

10 mai 2021

L’Europe s’engage pour une intelligence artificielle « de confiance »

« Faire de l’Europe le pôle mondial d’une intelligence artificielle digne de confiance. » C’est l’engagement de la Commission européenne qui propose un tout premier cadre juridique et un nouveau plan coordonné avec les Etats membres pour garantir la sécurité les droits fondamentaux des citoyens et des entreprises vis-à-vis de intelligence artificielle.

« En matière d’intelligence artificielle, la confiance n’est pas un luxe mais une nécessité absolue », prévient le 21 avril Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique à l’occasion de la présentation d’une proposition de règlement européen sur l’intelligence artificielle (IA). « En adoptant ces règles qui feront date, l’UE prend l’initiative d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance. »

Objectif : ouvrir la voie à une technologie d’intelligence artificielle éthique, « centrée sur l’humain, durable, sûre, inclusive et digne de confiance » et assurer la sécurité et les droits fondamentaux des citoyens et des entreprises.

Première mesure : Bruxelles propose à cette intention un cadre juridique pour fixer des règles face aux risques spécifiques liés aux systèmes d’IA, disposant des normes les plus strictes au monde. Seconde mesure : la Commission met en place un plan coordonné qui décrit « les réorientations et les investissements qui seront nécessaires au niveau des États membres pour renforcer la position de premier plan de l’Europe dans le développement d’une IA centrée sur l’humain, durable, sûre, inclusive et digne de confiance ».

« Les nouvelles règles, fondées sur une définition de l’IA à l’épreuve du temps, seront directement applicables dans tous les États membres », précise la Commission. Ces règles suivent une approche fondée sur trois niveaux de risques :

  • le risque inacceptable quand les systèmes d’IA sont considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes ;
  • le risque limité, c’est-à-dire les systèmes d’IA auxquels s’appliquent des obligations spécifiques de transparence tels que les chatbots ;
  • le risque minime qui concerne la grande majorité des systèmes d’IA comme les applications pour les jeux vidéo ou les filtres antispam reposant sur l’IA.

Ce tout premier cadre juridique est complété par le plan coordonné actualisé. Il « utilisera les fonds alloués au titre du programme pour une Europe numérique et d’Horizon Europe, ainsi que de la facilité pour la reprise et la résilience, qui prévoit de consacrer 20 % des dépenses au numérique, et des programmes relevant de la politique de cohésion », précise Bruxelles.

Ghislaine Trabacchi

A lire aussi

Intelligence artificielle : la Commission européenne veut une stratégie axée sur l’humain

Intelligence artificielle : la Commission européenne veut une stratégie axée sur l’humain

La Commission européenne a dévoilé le 19 février 2020 sa stratégie pour les données et le développement de l’intelligence artificielle. Pour les secteurs à haut…

Lire la suite

 

L’Europe dévoile son plan IA

L’Europe dévoile son plan IA

La Commission européenne a présenté un plan coordonné avec les États membres pour favoriser le développement et l’utilisation de l’IA en Europe, notamment en santé.

Lire la suite