L’UE vient de se doter de règles encadrant l’utilisation de l’Intelligence Artificielle sur son territoire. Contraignantes à partir d’août 2026, elles favorisent une IA « respectueuse des droits fondamentaux » et interdisent certaines pratiques. Voici lesquelles et pourquoi.
Pour favoriser l’entrée d’une Intelligence Artificielle « bénéfique au plan social et environnemental » dans le quotidien des européens – particuliers et entreprises – le Parlement européen vient de se doter de son premier texte législatif encadrant la mise sur le marché et l’utilisation en Europe des systèmes d’intelligence artificielle (IA). Publié au JO de l’UE le 12 juillet, ce texte, à la fois incitatif et contraignant, crée un « Office Européen pour l’IA » chargé de superviser la réglementation.
Il sera applicable et opposable dans son intégralité à partir du 2 août 2026, pour donner le temps aux acteurs et contrôleurs de se préparer.
Si certains articles visent à favoriser l’émergence et le recours à une IA « axée sur l’humain » et « digne de confiance », d’autres ont vocation à prévenir des situations à risque pour les libertés individuels et les droits fondamentaux, certaines étant déjà identifiées.
A cette fin, le texte impose donc un cadre clair, avec ses interdits, ses exigences et ses sanctions :
Techniques subliminales :
Parmi les pratiques interdites par le nouveau règlement, le Parlement européen s’est intéressé à l’utilisation de systèmes d’IA exploitant des techniques subliminales pour manipuler le comportement humain en contournant le libre arbitre. Par exemple, des technologies invisibles à l’œil nu pourraient altérer le comportement d’une personne à son insu, engendrant des préjudices physiques ou psychologiques. Cette pratique est désormais prohibée. De plus, le texte législatif proscrit les systèmes d’IA exploitant la vulnérabilité d’une personne en raison de son âge ou d’un handicap, afin de prévenir les abus potentiels.
Notation selon les opinions, la religion… :
Une autre interdiction concerne les systèmes de notation sociale, une pratique controversée dans certains pays. Ceux-ci visent à évaluer les individus en fonction de leur comportement social ou de caractéristiques personnelles. Une approche jugée injuste et disproportionnée, notamment lorsqu’elle entraîne des discriminations. Les systèmes de catégorisation biométrique, qui pourraient analyser des caractéristiques sensibles comme les opinions politiques ou religieuses, sont également prohibés, au nom du respect des libertés et des droits fondamentaux de l’individu en Europe.
Reconnaissance faciale sur lieux publics :
Le règlement encadre strictement les usages de l’IA dans le domaine de la sécurité, notamment pour la reconnaissance faciale en temps réel dans les espaces publics. Celle-ci ne pourra être employée que dans des situations exceptionnelles, comme la prévention d’une menace terroriste imminente ou la recherche d’enfants disparus. Dans tous les cas, une autorisation préalable d’une autorité judiciaire ou administrative sera nécessaire. Il s’agit là de prévenir toute recours abusif à l’IA pour raison sécuritaire.
Influer sur une élection :
Les systèmes d’IA à haut risque, tels que ceux influençant le résultat d’élections ou le comportement des électeurs, sont également sous contrôle strict. Les citoyens auront le droit de déposer des plaintes contre ces systèmes et de recevoir des explications sur les décisions impactant leurs droits. Mesure qui fait écho au scandale Cambridge Analytica ainsi qu’aux fake news et fake vidéos qui se multiplient actuellement aux Etats-Unis mais aussi en France.
Sanctions financières sévères
Pour inciter à son respect, le texte législatif prévoit des sanctions. Le non-respect de ces règles pourra ainsi entraîner des amendes lourdes, allant jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires mondial des entreprises contrevenantes.
Ce cadre législatif ambitieux marque une étape clé pour la régulation de l’IA en Europe, en favorisant le développement et un usage éthique et responsable de ces technologies tout en protégeant les utilisateurs contre les abus. L’histoire dira rapidement s’il suffit et surtout si les moyens de le faire respecter sont suffisamment dissuasifs et efficaces.