AI Act : une réglementation historique en Intelligence Artificielle
L’IA Act, adopté par l’Union européenne, marque une avancée majeure dans la régulation de l’intelligence artificielle. Il protège les droits fondamentaux en interdisant les pratiques à "risque inacceptable" et en encadrant strictement les IA à haut risque. Certaines mesures sont en vigueur depuis février 2025.
.jpg?rev=d6899ff0-058e-4862-94ae-ed8a6c61ee67&mw=660&hash=71E1DC96143B05F5AB4CD85B73F3A0C9)
Entrée en vigueur des premières dispositions de l‘AI Act : Février 2025
Ces interdictions concernent principalement les systèmes exploitants :
- la manipulation,
- la surveillance excessive
- ou la discrimination algorithmique.
Le 4 février dernier, la Commission européenne a publié des lignes directrices sur les pratiques interdites en matière d’IA. Ces recommandations visent à assurer une application cohérente du règlement dans l’UE. Toutefois, elles ne sont pas juridiquement contraignantes, leur interprétation faisant autorité étant réservée à la Cour de justice de l’Union européenne (CJUE).
Les pratiques interdites par l’AI Act
1. Manipulation subliminale ou trompeuse
L’IA Act interdit les systèmes d’IA utilisant des techniques subliminales ou manipulatrices susceptibles d’altérer le comportement des individus et de causer un préjudice. Ces techniques peuvent inclure des messages subliminaux cachés dans des vidéos, des sons imperceptibles influençant les décisions des utilisateurs ou des algorithmes exploitant les biais cognitifs humains pour orienter leurs choix.
Exemple : Un chatbot conçu pour influencer les décisions financières des utilisateurs en leur présentant de manière biaisée certaines options d’investissement.
2. Exploitation des vulnérabilités
L’exploitation des faiblesses dues à l’âge, au handicap ou à la situation sociale est interdite. L’IA Act empêche ainsi les entreprises de concevoir des systèmes exploitant la naïveté des enfants ou la vulnérabilité des personnes âgées et défavorisées.
Exemple : Un jouet IA encourageant des enfants à relever des défis risqués en échange de récompenses numériques, les incitant ainsi à des comportements dangereux.
3. Scoring social
Inspiré du modèle chinois, l’IA Act interdit tout système de notation sociale affectant l’accès à des services essentiels. Il est interdit d’utiliser l’IA pour attribuer un score aux individus basé sur leur comportement en ligne ou leurs interactions sociales.
Exemple : Une banque refusant un prêt en fonction d’une analyse algorithmique des habitudes de consommation du client.
4. Police prédictive
L’utilisation d’IA pour prédire des infractions sur la base de profilage est interdite. Les systèmes d’IA ne peuvent pas établir des probabilités de comportements criminels sur la base de critères personnels.Exemple : Un programme d’IA signalant des individus comme "potentiellement dangereux" uniquement en fonction de leur nationalité et de leur situation économique.
5. Bases de données de reconnaissance faciale non ciblées
L’IA Act interdit la création de bases de données de reconnaissance faciale collectées massivement sur Internet ou via la surveillance publique. Cela vise à empêcher l’exploitation des images issues des réseaux sociaux ou des caméras de surveillance sans consentement explicite des individus concernés.6. Inférence des émotions
L’utilisation de l’IA pour déduire les émotions des individus dans les lieux de travail et les établissements scolaires est interdite, sauf pour des raisons médicales.Exemple : Un logiciel analysant les expressions faciales des employés pour évaluer leur motivation et justifier des décisions de gestion.
7. Catégorisation biométrique
L’interdiction concerne l’utilisation de l’IA pour déduire la race, l’orientation sexuelle ou les opinions politiques d’une personne sur la base de données biométriques. L’objectif est d’empêcher toute forme de discrimination automatisée fondée sur des critères sensibles.Exemple : Une IA classifiant automatiquement les personnes selon des critères raciaux pour adapter la publicité ciblée.
8. Collecte biométrique en temps réel
L’IA Act interdit la reconnaissance faciale en temps réel dans les espaces publics à des fins de surveillance, sauf exceptions strictes (terrorisme, recherche de personnes disparues, etc.). Toute utilisation de ces technologies doit être soumise à une autorisation spécifique et un cadre réglementaire strict.
Le nouveau gouvernement belge veut autoriser la reconnaissance faciale
Vers le haut de la pageComment repérer des pratiques interdites de l’AI Act ?
Mise en œuvre effective
L’UE met en place plusieurs instances pour garantir l’application du règlement :
- Bureau de l’IA : organe de surveillance et de régulation chargé de veiller au respect du cadre législatif.
- Comité de l’IA : regroupant des experts des États membres pour une coordination et une évaluation régulière.
- Obligation de transparence : dès 2026, tout contenu généré par l’IA devra être signalé de manière claire, par exemple via un filigrane sur les images ou une mention explicite sur les textes.
Il faut savoir que la plupart des temps, les pratiques interdites seront indétectables par les utilisateurs …
Comment réagir ?
Les utilisateurs doivent :
- Paramétrer leurs comptes pour limiter la collecte de données et désactiver les options de personnalisation non désirées.
- Vérifier les CGU des services en ligne et refuser les clauses abusives liées à l’utilisation des données personnelles.
- Signaler les abus aux autorités compétentes et utiliser les recours juridiques en cas d’atteinte à leurs droits.
Quelles sanctions en cas de non-respect de l’AI Act ?
Chaque pays de l'UE devra désigner une autorité de régulation d'ici août 2025.
Les sanctions varient selon la gravité des infractions :
- Infraction aux interdictions de l’article 5 (les pratiques jugées à "risque inacceptable") : amende jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires annuel.
- Infractions mineures : amendes réduites mais dissuasives.
Les institutions publiques qui ne respectent pas ces règles peuvent également être sanctionnées. Les entreprises contrevenantes devront, en plus des sanctions financières, cesser immédiatement l’utilisation des systèmes IA non conformes sous peine de restrictions supplémentaires.
Selon nous, l’AI Act constitue une avancée majeure pour une IA plus éthique et transparente en Europe. Il impose des règles strictes aux entreprises tout en offrant aux citoyens un cadre protecteur contre les abus de l’IA. Son application sera scrutée de près par les instances de régulation, et un suivi rigoureux sera mis en place afin d’assurer un respect effectif de la loi.
Vous avez des questions sur l’utilisation de l’IA ChatGPT ?
Protégez-vous quand vous utilisez l’IA