EU AI Act — Wat uw bedrijf moet weten
De EU AI Act is 's werelds eerste uitgebreide AI-regelgeving. Als uw bedrijf AI-tools gebruikt in Europa, gelden deze regels voor u. Hier is een praktisch overzicht van wat deployers moeten doen.
Belangrijke data
Verboden AI-praktijken (verbod op sociale scoring, manipulatieve AI, enz.) treden in werking. Reeds van kracht.
Governance-regels en AI-geletterdheidsverplichtingen (Article 4) zijn van toepassing. Bedrijven moeten ervoor zorgen dat medewerkers de AI-tools die ze gebruiken begrijpen. Reeds van kracht.
Volledige toepassing voor AI-systemen met een hoog risico en alle deployerverplichtingen. Dit is de belangrijkste deadline.
Risicocategorieën
De EU AI Act classificeert elk AI-systeem in een van vier risiconiveaus. Het niveau bepaalt welke verplichtingen van toepassing zijn.
Onaanvaardbaar risico
Deze AI-systemen zijn in de EU ronduit verboden. Geen uitzonderingen.
Sociale scoring, realtime biometrische identificatie in openbare ruimten, manipulatieve AI gericht op kwetsbare groepen.
Hoog risico
Toegestaan maar met aanzienlijke verplichtingen: conformiteitsbeoordelingen, plannen voor menselijk toezicht, technische documentatie en doorlopende monitoring.
AI in HR/werving, kredietscorebeoordeling, onderwijsbeoordeling, rechtshandhaving, kritieke infrastructuur, immigratiebeslissingen.
Beperkt risico
Gebruikers moeten duidelijk worden geïnformeerd dat ze met AI communiceren. Geen andere specifieke verplichtingen.
Chatbots, deepfake-generators, emotieherkenningssystemen, door AI gegenereerde content.
Minimaal risico
Geen specifieke wettelijke vereisten. De meeste zakelijke AI-tools vallen in deze categorie.
E-mail opstellen, documentsamenvattingen, code-assistentie, interne analyses, AI-aangedreven zoekopdrachten.
Deployerverplichtingen
Als uw bedrijf AI-systemen gebruikt (deployt) — zelfs als u ze niet zelf heeft gebouwd — gelden deze verplichtingen voor u.
Menselijk toezicht
Zorg ervoor dat mensen AI-beslissingen kunnen monitoren, interpreteren en overrulen. Wijs duidelijke verantwoordelijkheid toe voor het toezicht op elk AI-systeem.
AI-geletterdheid
Train uw medewerkers om AI-systemen competent te gebruiken. Ze moeten de mogelijkheden, beperkingen en risico's van de AI-tools waarmee ze werken begrijpen.
Operationele monitoring
Monitor AI-systemen tijdens het gebruik. Let op afwijkingen, vooringenomenheid, prestatievermindering of onverwacht gedrag. Houd logboeken bij.
Incidentrapportage
Meld ernstige incidenten met AI-systemen met een hoog risico zonder onnodige vertraging aan de autoriteiten. Houd een incidentlogboek bij met ernst, oorzaak en oplossing.
Transparantie
Informeer personen wanneer ze met AI communiceren of wanneer AI beslissingen neemt die hen beïnvloeden. Wees duidelijk over wat de AI wel en niet doet.
Effectbeoordeling grondrechten (FRIA)
Op grond van Article 27 is een FRIA vereist bij de inzet van AI met een hoog risico in gevoelige gebieden. De beoordeling moet het doel, de betrokken groepen, mogelijke gevolgen voor grondrechten, mitigerende maatregelen en toezichtsmaatregelen documenteren.
Van toepassing op: HR en werving, verzekeringen, kredietwaardigheidsbeoordelingen en overheidsdiensten.
Controleer uw nalevingspositie
Fronterio classificeert uw AI-agenten automatisch op risiconiveau en volgt uw deployerverplichtingen.