Veiligheidsregels voor Artificiële Intelligentie (AI-verordening)

Ingangsdatum: 1 augustus 2024

Wat verandert er?

Er komen regels voor het ontwikkelen en gebruiken van Artificiële Intelligentie (AI) voor de hele EU. Deze regels staan in de Artificial Intelligence Act (AI Act of AI-verordening). De AI-verordening moet ervoor zorgen dat alleen veilige AI-systemen op de markt komen. De veiligheidsregels gelden voor aanbieders en gebruiksverantwoordelijken van allerlei AI-systemen. Bijvoorbeeld AI die helpt om beslissingen te nemen, voorspellingen te doen, inhoud te maken of mensen te helpen.

De regels zijn bijvoorbeeld:

  • U mag onder andere manipulatieve AI of AI voor emotieherkenning op het werk niet verkopen of gebruiken (verboden AI).
  • U moet bij AI-systemen voor risicovolle toepassingen (hoog-risico AI) aan verschillende eisen voldoen om de risico’s kleiner te maken voordat u ze mag verkopen of gebruiken. Bijvoorbeeld bij AI-systemen voor werving en selectie, in het onderwijs en bij veiligheid van kritieke infrastructuur moet u aan eisen voldoen voor onder andere risicobeheer, monitoring en cyberbeveiliging.
  • Voor sommige systemen zoals chatbots en generatieve AI (AI waarmee u tekst en beeld kunt maken) gelden speciale transparantie-eisen, zodat gebruikers weten dat ze met een AI-systeem of AI-gegenereerde content te maken hebben.
  • U moet duidelijk zijn over waar en hoe de consument AI bij u kan tegenkomen en welke risico’s dit kan hebben.
  • Voor AI-systemen met een laag risico gaan geen eisen gelden. Laag risico AI is bijvoorbeeld AI die zorgt dat de elektrische auto op een slim moment wordt geladen of AI die de logistiek voor de bloementeelt optimaliseert.
  • Voor aanbieders van AI-modellen voor algemene doeleinden (zoals het analyseren van afbeeldingen en het vertalen van teksten) gelden transparantieverplichtingen zoals het opstellen van informatie en documentatie. Zo kunnen aanbieders van AI-systemen waarin dit AI-model is verwerkt ook aan de eisen van de AI-verordening voldoen. Als een AI-model voor algemene doeleinden wordt verwerkt in een systeem met een hoog risico dan gelden er extra veiligheidsregels.

Welke regels er gaan gelden voor u of voor uw AI-oplossing, hangt af van:

  1. of uw toepassing een AI-systeem is volgens de AI-verordening,
  2. onder welke risicocategorie uw AI-systeem valt,
  3. of u de aanbieder of gebruiksverantwoordelijke bent van het AI-systeem

Categorieën voor AI-systemen

De risicocategorieën voor AI-systemen zijn:

  • Verboden AI, zoals manipulatieve AI of AI voor emotieherkenning op het werk.
  • Hoog-risico AI, zoals AI-systemen voor biometrische identificatie, rechtshandhaving en personeelszaken.
  • AI met transparantieverplichtingen, zoals chatbots en content vanuit generatieve AI.
  • Laag risico AI, zoals AI die zorgt dat de elektrische auto op een slim moment wordt geladen.
  • AI-modellen voor algemene doeleinden die veel verschillende taken kunnen uitvoeren, zoals het analyseren van afbeeldingen en het vertalen van teksten. Deze AI-modellen kunnen de basis vormen voor andere AI-systemen.

Voor wie?

  • Aanbieders van AI: u ontwikkelt een AI-systeem of model of laat een AI-systeem ontwikkelen en brengt dat systeem op de markt of gaat het zelf gebruiken.
  • Gebruiksverantwoordelijken van AI-systemen: u gebruikt een AI-systeem onder eigen verantwoordelijkheid.

Om te weten of u met de AI-verordening te maken krijgt, kunt u controleren of uw AI-systeem in 1 van de risicocategorieën verkoopt of gebruikt en of u aanbieder of gebruiksverantwoordelijke bent van dat soort AI.

Wanneer?

De AI-verordening gaat in op 1 augustus 2024 en vanaf die datum gaan alle termijnen in de wet tellen:

  • Begin 2025 (na 6 maanden) mogen de verboden AI-systemen niet meer op de markt zijn in de EU.
  • Medio 2025 (na 1 jaar) moeten grote AI-modellen die voor veel toepassingen kunnen worden ingezet aan de eisen voldoen, met handhaving door de Europese Commissie.
  • Medio 2026 (na 2 jaar) moeten alle hoog-risico AI-systemen aan de eisen voldoen. Aanbieders van deze AI moeten een conformiteitsbeoordeling (laten) doen en een CE-markering gebruiken, gebruiksverantwoordelijken moeten hun verplichtingen nakomen.
  • Medio 2027 (na 3 jaar) gelden de eisen voor AI die wordt ingebouwd in gereguleerde producten zoals medische toepassingen. Aanbieders van dit soort AI moeten een conformiteitsbeoordeling laten doen en een CE-markering gebruiken, gebruiksverantwoordelijken moeten hun verplichtingen nakomen.

Naar verwachting komen er in 2025 landelijke regels voor sommige onderdelen van de AI-verordening. Bijvoorbeeld wie de toezichthouders worden voor de AI-verordening. Vanaf dat moment wordt er gecontroleerd of aanbieders en gebruiksverantwoordelijken zich houden aan de AI-verordening.

VESTIGINGSGEGEVENSDELTA ADVISORY B.V.
De La Reyweg 409

2571 EK 's-GRAVENHAGE


KVK: 83150307

BTW: NL862752218B01

OPENINGSTIJDEN
Ma t/m Vr : 09:30 - 17:30
Zaterdag : 12:00 - 17:00
Zondag : Gesloten



 

CONTACT
De La Reyweg 409, Den Haag, Nederland
VOLG ONS

Chat openen
Delta Advisory
Hallo 👋
Kunnen we je helpen?