Réservez les formations disponibles partout en France !

location-dot
location-dot
location-dot
À partir de
location-dot
image OFimage OF
  1. Accueil
  2. Pages guide
  3. Règlement IA : que contient le texte européen ?

Règlement IA : que contient le texte européen ?

Depuis fin 2022, l’IA n’est plus un sujet innovation. C’est devenu un outil de production : RH, service client, marketing, analyse de données, relation commerciale. L’IA générative n’a pas seulement accéléré la technologie : elle a accéléré les usages. Et mécaniquement… les risques.


L’Union européenne a donc dégainé un cadre inédit : le règlement (UE) 2024/1689, plus connu sous le nom d’AI Act. Le texte encadre le développement, la mise sur le marché et l’utilisation des systèmes d’IA, avec une logique proche du RGPD : créer de la confiance, harmoniser les règles dans le marché unique, et rendre les acteurs responsables, y compris hors UE dès lors que leurs systèmes sont utilisés en Europe.


Pour les entreprises, la question n’est plus “pour ou contre”. Elle est très pragmatique : quels outils IA j’utilise (ou je vends), dans quelle catégorie de risque ils tombent, et quelles obligations je dois être capable de prouver. Décryptage.

Règlement IA : pourquoi l’Europe encadre l’intelligence artificielle ?

L’AI Act n’est pas sorti d’un chapeau bruxellois. Il est le résultat de trois années de négociations, accélérées par l’irruption de l’IA générative et l’explosion des usages. Derrière ce texte, une question très politique, et très économique : comment laisser l’IA se déployer sans transformer le marché en Far West réglementaire ?


Parce que l’IA influence déjà des décisions sensibles

Recrutement, crédit, assurance, orientation, triage médical, justice, surveillance… L’intelligence artificielle intervient désormais au cœur de décisions sensibles : elle classe, filtre, hiérarchise, parfois arbitre. À ce niveau-là, une erreur ou un biais ne reste pas un problème technique : c’est un enjeu juridique, social et économique.

Pour exemple, Amazon a abandonné un outil de recrutement basé sur l’IA après avoir constaté qu’il défavorisait les candidatures féminines (biais appris à partir des données historiques). Source : Reuters.

Parce que les usages ont explosé avec l’IA générative

L’IA générative a fait sauter les barrières d’entrée. En quelques mois, des outils capables de produire du texte, des images ou du code se sont retrouvés au cœur des organisations, souvent sans gouvernance, sans documentation, et avec des zones grises (droits d’auteur, données personnelles, deepfakes).

En 2024, 65 % des organisations interrogées déclaraient déjà utiliser régulièrement l’IA générative. Source : McKinsey (The State of AI).

Pour interdire certains usages… et encadrer le reste

Tous les systèmes d’IA n’exposent pas au même niveau de risque. L’Europe a donc choisi une approche graduée :

  • certains usages sont purement et simplement interdits,
  • d’autres restent possibles, mais sous conditions strictes, notamment lorsqu’ils relèvent du haut risque,
  • la majorité des systèmes demeure autorisée, avec des exigences plus légères, centrées sur la transparence et l’information des utilisateurs.


Pour protéger les droits fondamentaux sans étouffer l’innovation

Le texte vise une IA dite digne de confiance : plus robuste, plus transparente, mieux supervisée. L’enjeu n’est pas d’empêcher l’innovation, mais d’éviter que l’IA se développe au prix de la discrimination, de la manipulation, ou d’une automatisation aveugle de décisions à fort impact.

« Le présent règlement vise à promouvoir l’adoption d’une intelligence artificielle (IA) axée sur l’humain et digne de confiance […]. » (Règlement (UE) 2024/1689, article 1)

Pour harmoniser le marché européen et imposer un standard

Cette stratégie n’est pas nouvelle. Le RGPD a déjà servi de modèle : un standard européen harmonisé, imposé à tous les acteurs du marché unique. Et il a été appliqué immédiatement : dès la première année, les autorités de protection des données de l’EEE avaient enregistré plus de 144 000 demandes et plus de 89 000 notifications de violations de données.


Preuve qu’un règlement européen n’est pas qu'un cadre théorique : il déclenche du contrôle, des obligations et des preuves à produire, exactement la logique de l’AI Act.



Du fournisseur au déployeur : qui l’AI Act met réellement sous responsabilité ?

Une idée reçue circule encore : « l’AI Act vise surtout les géants de la tech ». En réalité, le règlement couvre toute la chaîne de valeur de l’IA, de la mise sur le marché à l’usage en entreprise. Il ne concerne pas seulement ceux qui développent l’IA, mais aussi ceux qui la commercialisent, la distribuent ou la déploient dans des processus sensibles.


Les 4 grandes familles d’acteurs visés

Le règlement distingue plusieurs catégories d’acteurs, regroupées sous le terme d’« opérateurs ». Dans la pratique, quatre familles sont particulièrement concernées :

  • Les fournisseurs : ceux qui développent un système d’IA (ou le font développer) et le mettent sur le marché sous leur nom ou leur marque.

  • Les déployeurs : les organisations qui utilisent un système d’IA dans leurs activités (entreprises, administrations, associations).

  • Les importateurs : ceux qui introduisent sur le marché européen un système d’IA provenant d’un pays tiers.

  • Les distributeurs : ceux qui mettent un système d’IA à disposition sur le marché, sans en être le fournisseur.

Une portée extraterritoriale

L’AI Act fonctionne sur une logique extraterritoriale : une entreprise située hors UE est concernée dès lors que son système d’IA est mis sur le marché européen ou que ses résultats sont utilisés dans l’Union (AI Act, article 2 - Champ d’application).

La définition juridique d’un système d’IA (article 3)

Cette définition est déterminante : c’est elle qui permet de trancher si votre outil entre (ou non) dans le champ du règlement.

Un système d’IA est « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » (Règlement (UE) 2024/1689, article 3 — Définitions).

Donc, un système d’IA, au sens du règlement, correspond à un outil capable de :

  • fonctionner de manière plus ou moins autonome,
  • évoluer ou s’adapter après son déploiement,
  • tirer des conclusions à partir de données pour produire un résultat, par exemple :
    • une prédiction,
    • un contenu,
    • une recommandation,
    • ou une décision.

En conséquence, dès lors qu’un logiciel analyse des données pour proposer ou trancher, et pas uniquement exécuter une règle prédéfinie, il peut relever de la définition d’un système d’IA.


AI Act : ce qui est considéré comme une IA

Voici quelques exemples d’outils généralement considérés (ou non) comme des systèmes d’IA au sens du règlement.

Catégorie Exemples À retenir
Généralement considéré comme un système d’IA
  • outil de tri et scoring de CV (recrutement)
  • système d’évaluation de solvabilité / de risque (assurance, crédit)
  • chatbot / assistant produisant des réponses contextualisées
  • moteur de recommandation ou de priorisation (support client, vente)
  • modèle génératif (texte, images, code)
Ces outils analysent des données pour produire des recommandations, contenus ou décisions.
Pas automatiquement une IA au sens du règlement
  • outils purement déterministes (règles fixes, calculs automatiques classiques)
  • tableaux de bord / scoring à la main sans apprentissage ni inférence
  • scripts ou automatisations simples (type si… alors…)
  • calculatrice, macro Excel, moteur de recherche classique
Ces outils appliquent des règles prédéfinies sans inférence autonome.

À retenir

Dès qu’un outil apprend, infère, recommande ou classe avec une logique autonome, il peut entrer dans le champ de l’AI Act : il faut alors évaluer son niveau de risque et identifier les obligations associées.

L’approche par les risques : le cœur de l’AI Act

Tout l’AI Act repose sur un principe : toutes les IA ne présentent pas le même niveau de risque. Le règlement ne traite donc pas l’intelligence artificielle en bloc. Il classe les systèmes selon leur impact potentiel sur la santé, la sécurité et les droits fondamentaux, et adapte les règles en conséquence : interdiction, obligations strictes, obligations de transparence… ou simple incitation aux bonnes pratiques.


Les pratiques interdites : le risque inacceptable (article 5)

Le règlement trace une ligne rouge. Certains usages sont considérés comme incompatibles avec les valeurs européennes : ils sont interdits, car jugés trop dangereux ou trop attentatoires aux droits fondamentaux.


Techniques manipulatrices et trompeuses Exploitation des vulnérabilités Prédiction d’infractions sur profilage Moissonnage d’images faciales Biométrie à distance en temps réel
Techniques subliminales, manipulatrices ou trompeuses visant à altérer substantiellement le comportement d’une personne ou d’un groupe. Exploitation des vulnérabilités liées à l’âge, au handicap ou à la situation sociale et économique, avec un effet préjudiciable. Évaluation/prédiction du risque de commission d’infractions pénales uniquement sur la base du profilage, traits de personnalité ou caractéristiques. Constitution de bases de données de reconnaissance faciale par collecte non ciblée d’images (internet, vidéosurveillance). Identification biométrique à distance en temps réel dans les espaces accessibles au public, sauf exceptions strictement encadrées.


Les systèmes à haut risque : autorisés, mais sous conditions strictes (article 6 + annexe III)

Deuxième étage de la fusée : le haut risque. Ici, le règlement n’interdit pas : il encadre lourdement.

Un système est considéré à haut risque lorsqu’il est utilisé dans des domaines où une erreur, un biais ou une défaillance peut avoir des conséquences graves : sécurité, accès à l’emploi, services essentiels, droits fondamentaux.


L’annexe III cite notamment des usages dans :


Emploi & travailleurs Éducation & formation Infrastructures critiques Services essentiels Biométrie & identification Migration & frontières Application de la loi & justice
Tri de CV, classement de candidatures, outils d’évaluation automatisée, scoring de performance. Évaluation, orientation, admission, accès à un établissement, affectation de parcours. Systèmes impactant la sécurité dans les transports, l’énergie, l’eau, les réseaux essentiels. Scoring de solvabilité et crédit, évaluation de risque, tarification d’assurance (selon cas). Reconnaissance biométrique, identification, vérification d’identité, catégorisation. Traitement des demandes (asile, visas), évaluation de risques, contrôle aux frontières. Analyse de risques, détection d’infractions, aide à la décision dans certains volets judiciaires.


À ce stade, les entreprises concernées doivent être capables de démontrer : gestion des risques, gouvernance des données, documentation technique, traçabilité, supervision humaine, robustesse, cybersécurité… bref, une conformité par la preuve.


Risque limité : transparence obligatoire (chatbots, deepfakes, info publique)

Troisième niveau : les systèmes à risque limité. Ici, le cœur n’est pas la conformité technique, mais l’information.

Le règlement impose notamment :

  • d’informer clairement les personnes lorsqu’elles interagissent avec un chatbot ou un système similaire,
  • d’indiquer lorsqu’un contenu est généré ou manipulé par une IA (notamment deepfakes), selon les cas,
  • et, pour certains contenus destinés à informer le public, de préciser qu’ils sont produits par IA.

L'enjeu étant de permettre à l’utilisateur de prendre une décision éclairée.


Risque minimal : pas d’obligation, mais des bonnes pratiques encouragées

La majorité des systèmes d’IA utilisés aujourd’hui relèvent de ce niveau : filtres antispam, IA de jeux vidéo, outils de recommandation basiques, automatisations sans impact sensible…

Pour ces systèmes, le règlement n’impose pas d’obligations lourdes. En revanche, il encourage des démarches volontaires : codes de conduite, bonnes pratiques de transparence, documentation minimale, etc.


Calendrier AI Act : les échéances à retenir

L’AI Act est déjà entré en vigueur, mais il ne s’applique pas en une fois. Le règlement prévoit une mise en œuvre progressive, avec plusieurs échéances qui déclenchent des interdictions ou des obligations selon les cas d’usage.



Que signifient ces échéances pour les entreprises ?

Chaque échéance déclenche des interdictions ou des obligations. Voici ce que cela implique, date par date, pour les entreprises.

2 février 2025 2 août 2025 2 août 2026 2 août 2027
Interdiction des pratiques à risque inacceptable (art. 5)
Manipulation, exploitation de vulnérabilités, moissonnage d’images faciales, biométrie à distance en temps réel dans l’espace public (sauf exceptions strictes).

Implication entreprise : arrêter/retirer les usages interdits.
Modèles d’IA à usage général (GPAI / LLM)
Entrée en application des obligations spécifiques (documentation, transparence, respect du droit d’auteur).

Implication entreprise : exigences renforcées côté fournisseurs → critères d’achat et contrats à adapter.
Systèmes d’IA à haut risque (annexe III)
Exigences structurantes : gestion des risques, gouvernance des données, documentation technique, logs, traçabilité, supervision humaine, robustesse, cybersécurité.

Implication entreprise : conformité démontrable (preuves, dossiers, process).
Extension aux IA intégrées dans des produits réglementés
Application des obligations aux systèmes haut risque intégrés dans des produits (dispositifs médicaux, machines, jouets…).

Implication entreprise : articulation AI Act + conformité produit (marquage CE, exigences sectorielles).

Bacs à sable réglementaires : la carte innovation du règlement

Les bacs à sable réglementaires (AI regulatory sandboxes) sont prévus par l’AI Act afin de permettre le développement, l’entraînement, la mise à l’essai et la validation de systèmes d’IA dans un cadre supervisé (Règlement (UE) 2024/1689, articles 57 et 58).

Quelles sanctions en cas de non-respect ?


L’AI Act prévoit des amendes administratives (article 99) avec trois plafonds principaux :

  • Jusqu’à 35 M€ ou 7 % du chiffre d’affaires mondial (le montant le plus élevé étant retenu) en cas de non-respect des pratiques interdites (article 5).

  • Jusqu’à 15 M€ ou 3 % du chiffre d’affaires mondial pour les autres manquements aux obligations du règlement (opérateurs, organismes notifiés, obligations de transparence, etc.).

  • Jusqu’à 7,5 M€ ou 1 % du chiffre d’affaires mondial en cas de fourniture d’informations inexactes, incomplètes ou trompeuses aux autorités ou organismes compétents.

PME / start-up
Le règlement prévoit un mécanisme plus proportionné : le plafond d’amende retenu correspond au montant le plus faible entre le forfait (ex. 35 M€) et le pourcentage du chiffre d’affaires mondial (ex. 7 %).

Sources officielles utilisées

  • EUR-Lex -Texte officiel du Règlement (UE) 2024/1689 (AI Act)
  • Service-Public.fr (DILA) - Synthèses et décryptages officiels à destination des entreprises
  • Commission européenne / European AI Office - Informations institutionnelles et ressources sur la mise en œuvre

Les informations réglementaires présentées dans ce contenu sont fondées sur les textes en vigueur à la date de mise à jour. Elles peuvent évoluer au fil des actes d’exécution, lignes directrices et publications officielles. Cet article a été rédigé par l’équipe éditoriale oùFormer, spécialiste des formations réglementaires et de la conformité en entreprise.

FAQ - Règlement IA Act : les questions que se posent les entreprises

logo ouformer
Réalisation :Definima
Utilisation des cookies

Nous utilisons des cookies pour vous fournir l'ensemble de nos services, notamment la recherche et les alertes. En acceptant, vous consentez à notre utilisation de ces cookies.

Tout refuser
Tout accepter