EU AI Act Gids

EU AI Act — Wat uw bedrijf moet weten

De EU AI Act is 's werelds eerste uitgebreide AI-regelgeving. Als uw bedrijf AI-tools gebruikt in Europa, gelden deze regels voor u. Hier is een praktisch overzicht van wat deployers moeten doen.

Belangrijke data

February 2025

Verboden AI-praktijken (verbod op sociale scoring, manipulatieve AI, enz.) treden in werking. Reeds van kracht.

August 2025

Governance-regels en AI-geletterdheidsverplichtingen (Article 4) zijn van toepassing. Bedrijven moeten ervoor zorgen dat medewerkers de AI-tools die ze gebruiken begrijpen. Reeds van kracht.

August 2026

Volledige toepassing voor AI-systemen met een hoog risico en alle deployerverplichtingen. Dit is de belangrijkste deadline.

Risicocategorieën

De EU AI Act classificeert elk AI-systeem in een van vier risiconiveaus. Het niveau bepaalt welke verplichtingen van toepassing zijn.

Verboden

Onaanvaardbaar risico

Deze AI-systemen zijn in de EU ronduit verboden. Geen uitzonderingen.

Sociale scoring, realtime biometrische identificatie in openbare ruimten, manipulatieve AI gericht op kwetsbare groepen.

Strenge regels

Hoog risico

Toegestaan maar met aanzienlijke verplichtingen: conformiteitsbeoordelingen, plannen voor menselijk toezicht, technische documentatie en doorlopende monitoring.

AI in HR/werving, kredietscorebeoordeling, onderwijsbeoordeling, rechtshandhaving, kritieke infrastructuur, immigratiebeslissingen.

Alleen transparantie

Beperkt risico

Gebruikers moeten duidelijk worden geïnformeerd dat ze met AI communiceren. Geen andere specifieke verplichtingen.

Chatbots, deepfake-generators, emotieherkenningssystemen, door AI gegenereerde content.

Geen verplichtingen

Minimaal risico

Geen specifieke wettelijke vereisten. De meeste zakelijke AI-tools vallen in deze categorie.

E-mail opstellen, documentsamenvattingen, code-assistentie, interne analyses, AI-aangedreven zoekopdrachten.

Deployerverplichtingen

Als uw bedrijf AI-systemen gebruikt (deployt) — zelfs als u ze niet zelf heeft gebouwd — gelden deze verplichtingen voor u.

Article 14

Menselijk toezicht

Zorg ervoor dat mensen AI-beslissingen kunnen monitoren, interpreteren en overrulen. Wijs duidelijke verantwoordelijkheid toe voor het toezicht op elk AI-systeem.

Article 4

AI-geletterdheid

Train uw medewerkers om AI-systemen competent te gebruiken. Ze moeten de mogelijkheden, beperkingen en risico's van de AI-tools waarmee ze werken begrijpen.

Article 26

Operationele monitoring

Monitor AI-systemen tijdens het gebruik. Let op afwijkingen, vooringenomenheid, prestatievermindering of onverwacht gedrag. Houd logboeken bij.

Article 73

Incidentrapportage

Meld ernstige incidenten met AI-systemen met een hoog risico zonder onnodige vertraging aan de autoriteiten. Houd een incidentlogboek bij met ernst, oorzaak en oplossing.

Article 50

Transparantie

Informeer personen wanneer ze met AI communiceren of wanneer AI beslissingen neemt die hen beïnvloeden. Wees duidelijk over wat de AI wel en niet doet.

Effectbeoordeling grondrechten (FRIA)

Op grond van Article 27 is een FRIA vereist bij de inzet van AI met een hoog risico in gevoelige gebieden. De beoordeling moet het doel, de betrokken groepen, mogelijke gevolgen voor grondrechten, mitigerende maatregelen en toezichtsmaatregelen documenteren.

Van toepassing op: HR en werving, verzekeringen, kredietwaardigheidsbeoordelingen en overheidsdiensten.

Controleer uw nalevingspositie

Fronterio classificeert uw AI-agenten automatisch op risiconiveau en volgt uw deployerverplichtingen.

EU AI Act Gids voor Deployers | Fronterio | Fronterio