en

Révolution numérique : ce que révèle la nouvelle régulation européenne de l’IA !

Décryptage de la loi sur l'Intelligence Artificielle

Après un parcours législatif de cinq ans ponctué de débats et d'amendements, l'Union Européenne vient d'adopter une loi historique régissant le secteur de l' (IA). Surnommée AI Act, cette réglementation se positionne comme un jalon majeur dans l'évolution des marchés digitaux au sein de l'UE. Toutefois, son adoption n'a pas été sans controverse.

Ce texte législatif a évolué, abandonnant certains de ses principes essentiels en cours de route, et ce, alors même que le domaine de l'IA connaît des transformations rapides que la dernière mouture ne semble pas entièrement embrasser.

L'intérêt général au cœur de la régulation

L'AI Act se distingue par son approche centrée sur l'intérêt général et la des consommateurs. Cette orientation s'inscrit dans une démarche globale visant à protéger les citoyens contre les associés à l'utilisation des technologies IA. Elle complète d'autres initiatives telles que le AI Package et le Coordinated Plan on AI.

Gestion des risques par la nouvelle loi IA

Catégorisation des risques : La législation propose un système de gestion articulé autour de quatre niveaux de risque, chacun soumis à un ensemble spécifique de règles. Ces niveaux sont définis en fonction du potentiel impact des applications IA sur les citoyens.

  • Systèmes interdits : ceux qui représentent une menace claire pour la sécurité et les droits fondamentaux.
  • Risque élevé : utilisation dans les dispositifs médicaux ou infrastructures critiques nécessitant une documentation exhaustive et des mesures strictes.
  • Risque limité : les systèmes IA requérant une accrue.
  • Risque minimal : applications comme les ou filtres anti-spam, qui sont largement répandus.

L'exclusion explicite de certaines applications IA

La législation européenne exclut formellement l'utilisation d'applications IA jugées inacceptables, telles que :

  • Systèmes générant une « notation sociale » gouvernementale.
  • Jouets utilisant des assistants vocaux encourageant des comportements dangereux.
  • Bases de données biométriques sensibles et reconnaissance faciale sans consentement explicite.
  • Analyse prédictive en matière policière basée uniquement sur le profilage individuel.
  • du par IA ou exploitation des vulnérabilités psychologiques.

Certification et conformité des systèmes d'IA

Pour qu'un système d'IA soit introduit sur le marché européen, il doit passer par un processus rigoureux comprenant :

  • Vérification du respect des normes établies par la loi.
  • Enregistrement au sein du système européen suivi d'une déclaration de conformité.
  • Surveillance continue en cas d'évolution significative du système d'IA concerné.
Afficher sommaire