Règlement européen sur l'IA — Ce que votre entreprise doit savoir
Le règlement européen sur l'IA est la première réglementation complète au monde en matière d'intelligence artificielle. Si votre entreprise utilise des outils d'IA en Europe, ces règles s'appliquent à vous. Voici un aperçu pratique de ce que les déployeurs doivent faire.
Dates clés
Les pratiques d'IA interdites (interdiction du scoring social, de l'IA manipulatrice, etc.) entrent en vigueur. Déjà en application.
Les règles de gouvernance et les obligations de culture IA (Article 4) s'appliquent. Les entreprises doivent s'assurer que leur personnel comprend les outils d'IA qu'il utilise. Déjà en application.
Application complète pour les systèmes d'IA à haut risque et toutes les obligations des déployeurs. C'est l'échéance principale.
Catégories de risque
Le règlement européen sur l'IA classe chaque système d'IA dans l'un des quatre niveaux de risque. Le niveau détermine les obligations applicables.
Risque inacceptable
Ces systèmes d'IA sont purement et simplement interdits dans l'UE. Aucune exception.
Scoring social, identification biométrique en temps réel dans les espaces publics, IA manipulatrice ciblant les groupes vulnérables.
Risque élevé
Autorisé mais avec des obligations importantes : évaluations de conformité, plans de supervision humaine, documentation technique et surveillance continue.
IA dans les RH/recrutement, scoring de crédit, notation scolaire, forces de l'ordre, infrastructures critiques, décisions d'immigration.
Risque limité
Les utilisateurs doivent être clairement informés qu'ils interagissent avec une IA. Aucune autre obligation spécifique.
Chatbots, générateurs de deepfakes, systèmes de reconnaissance des émotions, contenu généré par l'IA.
Risque minimal
Aucune exigence réglementaire spécifique. La plupart des outils d'IA professionnels entrent dans cette catégorie.
Rédaction d'e-mails, synthèse de documents, assistance au code, analyses internes, recherche alimentée par l'IA.
Obligations des déployeurs
Si votre entreprise utilise (déploie) des systèmes d'IA — même si vous ne les avez pas développés — ces obligations s'appliquent à vous.
Supervision humaine
Assurez-vous que des humains peuvent surveiller, interpréter et annuler les décisions de l'IA. Attribuez une responsabilité claire pour la supervision de chaque système d'IA.
Culture IA
Formez votre personnel à utiliser les systèmes d'IA de manière compétente. Il doit comprendre les capacités, les limites et les risques des outils d'IA avec lesquels il travaille.
Surveillance opérationnelle
Surveillez les systèmes d'IA en cours d'utilisation. Soyez attentif aux anomalies, biais, dégradations de performance ou comportements inattendus. Tenez des journaux.
Signalement d'incidents
Signalez les incidents graves impliquant des systèmes d'IA à haut risque aux autorités sans retard injustifié. Tenez un journal d'incidents avec la gravité, la cause et la résolution.
Transparence
Informez les personnes lorsqu'elles interagissent avec une IA ou lorsque l'IA prend des décisions qui les concernent. Soyez clair sur ce que l'IA fait et ne fait pas.
Analyse d'impact sur les droits fondamentaux (FRIA)
En vertu de l'Article 27, une FRIA est requise lors du déploiement d'une IA à haut risque dans des domaines sensibles. L'analyse doit documenter l'objectif, les groupes concernés, les impacts potentiels sur les droits fondamentaux, les mesures d'atténuation et les dispositifs de supervision.
S'applique aux domaines suivants : RH et recrutement, souscription d'assurance, évaluation de solvabilité et services publics.
Vérifiez votre posture de conformité
Fronterio classe automatiquement vos agents IA par niveau de risque et suit vos obligations de déployeur.