Maakt u een AI-systeem of -model? Of laat u dit maken, voor eigen gebruik of om te verkopen? Of gebruikt u een bestaand AI-systeem, en bent u daardoor gebruiksverantwoordelijk? Uw AI-systeem moet voldoen aan de regels uit de Europese AI-verordening (Artificial Intelligence Act).
Wat is de AI-verordening?
De AI-verordening verplicht de aanbieders en gebruiksverantwoordelijken van AI-systemen in heel Europa om de rechten van personen en bedrijven te beschermen bij de ontwikkeling en het gebruik van AI-systemen. De verordening stelt eisen aan AI-systemen die een hoog risico vormen. Het verbiedt toepassingen van AI die ontoelaatbare risico’s vormen voor de mens en de samenleving. Ook geeft de verordening regels over de transparantie van de AI-systemen, en regelt het de toezicht en handhaving op Europees niveau.
Wat zijn verboden AI-systemen?
Het is verboden om een AI-systeem beschikbaar te maken of te gebruiken, als het systeem het doel heeft om:
- menselijk gedrag negatief te beïnvloeden, om zo de vrije keuze van personen te beperken
- misbruik te maken van kwetsbare personen op basis van hun leeftijd, handicap, of situatie
- mensen te belonen of te bestraffen via een puntensysteem, op basis van gedrag of persoonlijke kenmerken (social scoring)
- het risico op het plegen van strafbare feiten op basis van persoonlijke kenmerken te berekenen
- databanken voor gezichtsherkenning te vullen met willekeurig verzamelde beelden van bijvoorbeeld bewakingscamera’s of sociale media (scraping)
- emoties te herkennen op bijvoorbeeld de werkplek of in het onderwijs, tenzij dit om medische of veiligheidsredenen wordt gedaan
- personen op basis van biometrische gegevens in gevoelige categorieën (zoals afkomst, gezondheid of geaardheid) te ordenen
- biometrische gegevens te gebruiken voor automatische identificatie van personen in openbare ruimten voor rechtshandhaving (behalve in bijzondere situaties waarin het gebruik strikt noodzakelijk is)
Brengt u toch, bedoeld of onbedoeld, een verboden AI-systeem op de markt? Burgers of bedrijven die door uw systeem schade oplopen, kunnen een rechtszaak tegen u starten. En je kunt een boete krijgen.
Wat zijn AI-systemen met een hoog risico?
Vanaf 2 augustus 2026 moeten AI-systemen met een hoog risico voldoen aan de regels uit de AI verordening. Dit gaat om AI-systemen die worden ingezet in de volgende gebieden:
- biometrie
- kritieke infrastructuur
- onderwijs en beroepsopleiding
- werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid
- essentiële particuliere en publieke diensten en uitkeringen
- rechtshandhaving
- migratie-, asiel- en grensbeheer
- rechtspraak en democratische processen
Vanaf 2 augustus 2027 moeten hoogrisico-AI-systemen zich als (veiligheidsonderdeel van) bestaande producten aan deze regels voldoen. Dus als AI een veiligheidsonderdeel van een risicoproduct is, maar ook wanneer het risicoproduct zélf een AI-systeem is. Bijvoorbeeld bij machines, medische apparatuur en liften.
Eisen aan een AI-systeem met hoog risico
Ontwikkelt u een hoogrisico-AI-systeem dat u op de markt wilt aanbieden voor gebruik in deze gebieden? Dan moet u aan een aantal verplichte productstandaarden voldoen waarmee u zorgt dat het AI-systeem betrouwbaar en veilig is. U moet voor uw AI-systeem onder andere:
- een systeem voor risicomanagement hebben
- een systeem voor kwaliteitsbeheer hebben
- mogelijkheden tot monitoring en menselijk toezicht inbouwen
- de technische documentatie kunnen tonen
- voldoen aan de eisen voor transparantie en het informeren van gebruikers
Aan uw gebruikers toont u dat uw systeem een EU-conformiteitsverklaring heeft met een CE-markering.
Uitzonderingen op de hoogrisico-toepassingsgebieden
Soms geldt voor het gebruik van AI-systemen in hoogrisico-toepassingsgebieden een uitzondering. Bijvoorbeeld als uw gebruik van het AI-systeem geen invloed heeft op een besluit dat u neemt. U moet wel het systeem registreren in de EU-databank voor hoogrisico AI-systemen.
Transparantieverplichtingen voor aanbieders
Biedt u specifieke AI-systemen aan waarmee mensen direct in contact komen, zoals chatbots of generatieve AI? Dan moet u ervoor zorgen dat uw klanten weten dat zij een AI-systeem gebruiken. Beeld of tekst die door AI is gemaakt moet een kenmerk krijgen zodat het herkenbaar is voor automatische detectie.
Transparantieverplichtingen voor gebruiksverantwoordelijken
Bent u gebruiksverantwoordelijke van een AI-systeem? Ook dan moet u daar openheid over geven. Als uw AI-systeem de biometrische gegevens (zoals vingerafdrukken of gezichtskenmerken) van personen indeelt, moet u deze personen informeren over de werking van uw systeem. Als u AI gebruikt om inhoud (zoals tekst of beeld) te maken of te bewerken, moet u duidelijk melden dat dit met AI is gemaakt.
Toezicht op AI-systemen
De Europese Commissie handhaaft de regels voor AI-modellen voor algemeen gebruik. Toezichthouders controleren op de naleving van verboden AI, eisen aan hoogrisico-AI-systemen en transparantieverplichtingen. Ook bieden zij een regulatory sandbox aan, waarmee aanbieders van AI-systemen kunnen vinden hoe zij kunnen voldoen aan de regels van AI-verordening.
Standaarden voor AI
De Europese normen voor AI zijn nog in ontwikkeling. Hoe de situatie nu is vindt u bij het Joint Technical Committee 21. De standaarden gaan als basis gelden voor wat als veilig en betrouwbaar wordt gezien. In Nederland gaat het Nederlandse Normalisatie-Instituut (NEN) hier toezicht op houden.