Guide du règlement IA

Règlement européen sur l'IA — Ce que votre entreprise doit savoir

Le règlement européen sur l'IA est la première réglementation complète au monde en matière d'intelligence artificielle. Si votre entreprise utilise des outils d'IA en Europe, ces règles s'appliquent à vous. Voici un aperçu pratique de ce que les déployeurs doivent faire.

Dates clés

February 2025

Les pratiques d'IA interdites (interdiction du scoring social, de l'IA manipulatrice, etc.) entrent en vigueur. Déjà en application.

August 2025

Les règles de gouvernance et les obligations de culture IA (Article 4) s'appliquent. Les entreprises doivent s'assurer que leur personnel comprend les outils d'IA qu'il utilise. Déjà en application.

August 2026

Application complète pour les systèmes d'IA à haut risque et toutes les obligations des déployeurs. C'est l'échéance principale.

Catégories de risque

Le règlement européen sur l'IA classe chaque système d'IA dans l'un des quatre niveaux de risque. Le niveau détermine les obligations applicables.

Interdit

Risque inacceptable

Ces systèmes d'IA sont purement et simplement interdits dans l'UE. Aucune exception.

Scoring social, identification biométrique en temps réel dans les espaces publics, IA manipulatrice ciblant les groupes vulnérables.

Règles strictes

Risque élevé

Autorisé mais avec des obligations importantes : évaluations de conformité, plans de supervision humaine, documentation technique et surveillance continue.

IA dans les RH/recrutement, scoring de crédit, notation scolaire, forces de l'ordre, infrastructures critiques, décisions d'immigration.

Transparence uniquement

Risque limité

Les utilisateurs doivent être clairement informés qu'ils interagissent avec une IA. Aucune autre obligation spécifique.

Chatbots, générateurs de deepfakes, systèmes de reconnaissance des émotions, contenu généré par l'IA.

Aucune obligation

Risque minimal

Aucune exigence réglementaire spécifique. La plupart des outils d'IA professionnels entrent dans cette catégorie.

Rédaction d'e-mails, synthèse de documents, assistance au code, analyses internes, recherche alimentée par l'IA.

Obligations des déployeurs

Si votre entreprise utilise (déploie) des systèmes d'IA — même si vous ne les avez pas développés — ces obligations s'appliquent à vous.

Article 14

Supervision humaine

Assurez-vous que des humains peuvent surveiller, interpréter et annuler les décisions de l'IA. Attribuez une responsabilité claire pour la supervision de chaque système d'IA.

Article 4

Culture IA

Formez votre personnel à utiliser les systèmes d'IA de manière compétente. Il doit comprendre les capacités, les limites et les risques des outils d'IA avec lesquels il travaille.

Article 26

Surveillance opérationnelle

Surveillez les systèmes d'IA en cours d'utilisation. Soyez attentif aux anomalies, biais, dégradations de performance ou comportements inattendus. Tenez des journaux.

Article 73

Signalement d'incidents

Signalez les incidents graves impliquant des systèmes d'IA à haut risque aux autorités sans retard injustifié. Tenez un journal d'incidents avec la gravité, la cause et la résolution.

Article 50

Transparence

Informez les personnes lorsqu'elles interagissent avec une IA ou lorsque l'IA prend des décisions qui les concernent. Soyez clair sur ce que l'IA fait et ne fait pas.

Analyse d'impact sur les droits fondamentaux (FRIA)

En vertu de l'Article 27, une FRIA est requise lors du déploiement d'une IA à haut risque dans des domaines sensibles. L'analyse doit documenter l'objectif, les groupes concernés, les impacts potentiels sur les droits fondamentaux, les mesures d'atténuation et les dispositifs de supervision.

S'applique aux domaines suivants : RH et recrutement, souscription d'assurance, évaluation de solvabilité et services publics.

Vérifiez votre posture de conformité

Fronterio classe automatiquement vos agents IA par niveau de risque et suit vos obligations de déployeur.

Guide du règlement européen sur l'IA pour les déployeurs | Fronterio | Fronterio