Dimanche 10 Décembre 2023
Anne-Laure Allain

AI Act : L'UE s'accorde sur des règles complètes pour une IA digne de confiance

Les députés européens sont parvenus à un accord vendredi 8 décembre avec le Conseil sur un projet de loi visant à garantir que l'IA en Europe soit sûre, respecte les droits fondamentaux et la démocratie, tandis que les entreprises peuvent prospérer et se développer. Seront entre autres interdites : la reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement ; la notation sociale basée sur le comportement social ou les caractéristiques personnelles...Ainsi que tous les systèmes d'IA qui manipulent le comportement humain pour contourner son libre arbitre.


Vendredi, les négociateurs du Parlement et du Conseil sont parvenus à un accord provisoire sur la loi sur l'intelligence artificielle. Ce règlement vise à garantir que les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale soient protégés contre l’IA à haut risque, tout en stimulant l’innovation et en faisant de l’Europe un leader dans le domaine. Les règles établissent des obligations pour l’IA en fonction de ses risques potentiels et de son niveau d’impact.Applications interdites

Conscients de la menace potentielle que représentent certaines applications de l’IA pour les droits des citoyens et la démocratie, les colégislateurs ont convenu d’interdire :

- les systèmes de catégorisation biométrique qui utilisent des caractéristiques sensibles (par exemple, convictions politiques, religieuses, philosophiques, orientation sexuelle, race) ;
- récupération non ciblée d'images faciales provenant d'Internet ou de séquences de vidéosurveillance pour créer des bases de données de reconnaissance faciale ;
- la reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement ;
- notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
- Des systèmes d’IA qui manipulent le comportement humain pour contourner leur libre arbitre ;
- L’IA est utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).
Exonérations d'application de la loi

Les négociateurs se sont mis d’accord sur une série de garanties et d’exceptions étroites pour l’utilisation de systèmes d’identification biométrique (RBI) dans les espaces accessibles au public à des fins répressives, sous réserve d’une autorisation judiciaire préalable et pour des listes de délits strictement définies. La RBI « post-à distance » serait utilisée strictement dans le cadre de la recherche ciblée d’une personne reconnue coupable ou soupçonnée d’avoir commis un crime grave.

La RBI « en temps réel » respecterait des conditions strictes et son utilisation serait limitée dans le temps et dans le lieu, aux fins de :

- recherches ciblées de victimes (enlèvement, traite, exploitation sexuelle),
- prévention d’une menace terroriste spécifique et actuelle,
- ou la localisation ou l'identification d'une personne soupçonnée d'avoir commis l'un des crimes spécifiques mentionnés dans le règlement (par exemple terrorisme, trafic, exploitation sexuelle, meurtre, enlèvement, viol, vol à main armée, participation à une organisation criminelle, criminalité environnementale).

Obligations pour les systèmes à haut risque
Pour les systèmes d’IA classés à haut risque (en raison de leurs dommages potentiels importants à la santé, à la sécurité, aux droits fondamentaux, à l’environnement, à la démocratie et à l’État de droit), des obligations claires ont été convenues. Les députés ont réussi à inclure une analyse d'impact obligatoire sur les droits fondamentaux, entre autres exigences, applicables également aux secteurs de l'assurance et de la banque. Les systèmes d’IA utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme à haut risque. Les citoyens auront le droit de déposer des plaintes concernant les systèmes d’IA et de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque qui ont un impact sur leurs droits.

Garde-corps pour les systèmes généraux d’intelligence artificielle
Pour tenir compte du large éventail de tâches que les systèmes d'IA peuvent accomplir et de l'expansion rapide de leurs capacités, il a été convenu que les systèmes d'IA à usage général (GPAI), et les modèles GPAI sur lesquels ils sont basés, devront adhérer aux exigences de transparence comme initialement proposé par le Parlement. Il s'agit notamment de l'élaboration d'une documentation technique, du respect de la législation européenne sur le droit d'auteur et de la diffusion de résumés détaillés sur le contenu utilisé pour la formation.

Pour les modèles GPAI à fort impact et présentant un risque systémique, les négociateurs du Parlement ont réussi à obtenir des obligations plus strictes. Si ces modèles répondent à certains critères, ils devront procéder à des évaluations de modèles, évaluer et atténuer les risques systémiques, effectuer des tests contradictoires, signaler à la Commission les incidents graves, garantir la cybersécurité et rendre compte de leur efficacité énergétique. Les députés ont également insisté sur le fait que, jusqu'à ce que des normes européennes harmonisées soient publiées, les GPAI présentant un risque systémique peuvent s'appuyer sur des codes de bonnes pratiques pour se conformer au règlement.

Mesures de soutien à l'innovation et aux PME
Les députés voulaient garantir que les entreprises, en particulier les PME, puissent développer des solutions d'IA sans pression indue de la part des géants industriels contrôlant la chaîne de valeur. À cette fin, l’accord promeut ce que l’on appelle les bacs à sable réglementaires et les tests en conditions réelles, établis par les autorités nationales pour développer et former une IA innovante avant sa mise sur le marché.

Sanctions et entrée en vigueur
Le non-respect des règles peut entraîner des amendes allant de 35 millions d'euros ou 7 % du chiffre d'affaires global à 7,5 millions ou 1,5 % du chiffre d'affaires, selon l'infraction et la taille de l'entreprise.

À la suite de l'accord, le co-rapporteur Brando Benifei (S&D, Italie) a déclaré : « Cela a été long et intense, mais l'effort en valait la peine. Grâce à la résilience du Parlement européen, la première législation horizontale au monde sur l'intelligence artificielle tiendra la promesse européenne : garantir que les droits et libertés soient au centre du développement de cette technologie révolutionnaire. Une mise en œuvre correcte sera essentielle – le Parlement continuera à surveiller de près, pour garantir le soutien aux nouvelles idées commerciales avec des bacs à sable et des règles efficaces pour les modèles les plus puissants ».

Le co-rapporteur Dragos Tudorache (Renew, Roumanie) a déclaré : « L'UE est la première au monde à mettre en place une réglementation solide sur l'IA, guidant son développement et son évolution dans une direction centrée sur l'humain. La loi sur l’IA fixe des règles pour les modèles d’IA de grande envergure et puissants, garantissant qu’ils ne présentent pas de risques systémiques pour l’Union et offre de solides garanties à nos citoyens et à nos démocraties contre tout abus de la technologie par les autorités publiques. Il protège nos PME, renforce notre capacité à innover et à devenir leader dans le domaine de l’IA, et protège les secteurs vulnérables de notre économie. L’Union européenne a apporté des contributions impressionnantes au monde ; la loi sur l’IA en est une autre qui aura un impact significatif sur notre avenir numérique ».

Prochaines étapes
Le texte convenu devra maintenant être formellement adopté par le Parlement et le Conseil pour devenir une loi européenne. Les commissions du marché intérieur et des libertés civiles du Parlement voteront sur l'accord lors d'une prochaine réunion.

-----------------------------------------------------------------------

Disclaimer: The text above is an advertising that was not written by Finyear.com.
The issuer is solely responsible for the content of this announcement.

Avertissement : Le texte ci-dessus est une publicité qui n'a pas été rédigée par Finyear.com.
L'émetteur est seul responsable du contenu de cette annonce.

-------------------------------------------------------------------------

Les avis financiers et/ou économiques présentés par les contributeurs de Finyear.com (experts, avocats, observateurs, bloggers, etc...) sont les leurs et peuvent évoluer sans qu’il soit nécessaire de faire une mise à jour des contenus. Les articles présentés ne constituent en rien une invitation à réaliser un quelconque investissement.

The financial and/or economic opinions presented by Finyear.com contributors (experts, lawyers, observers, bloggers, etc.) are their own and may change without the need to update the content. The articles presented do not constitute an invitation to make any investment.

Articles similaires