
De AI-verordening is een set aan regels die betrouwbare AI in de EU moet garanderen, door eisen te stellen aan de ontwikkeling en het gebruik van deze systemen. Afhankelijk van het AI-systeem of de context waarin het gebruikt gaat worden, gelden er andere eisen. Toepassingen van AI die echt ontoelaatbare risico’s opleveren voor mensen, worden verboden. Denk daarbij aan systemen die worden gebruikt voor een oneerlijke beoordeling van mensen (zogenaamde ‘social scoring’). Aan AI met hoge risico’s, zoals bij toepassingen op de arbeidsmarkt of in de financiële dienstverlening, worden duidelijke eisen gesteld. Bij bepaalde AI-toepassingen die met burgers contact hebben (zoals chatbots) of content maken of manipuleren (deepfakes) moet het duidelijk zijn dat dit AI is.
Aan AI-toepassingen die weinig of geen risico’s met zich meebrengen worden geen nieuwe eisen gesteld. De meeste AI-systemen die nu in Europa worden gebruikt, vallen in deze categorie.
Ontwikkeling AI-systemen
De nieuwe regels moeten ook duidelijkheid gaan scheppen voor AI-ontwikkelaars wanneer zij hun producten op de Europese markt willen aanbieden. Daarnaast kunnen bedrijven en (overheids-)organisaties in regulatory sandboxes advies en uitleg krijgen van toezichthouders over de regels van de verordening, om zo de drempel te verlagen om AI-systemen op verantwoorde wijze te ontwikkelen en in te zetten. Ten slotte zorgen deze Europese regels voor een gelijk speelveld; ook niet-Europese aanbieders van AI-producten en -diensten moeten hieraan voldoen als zij deze hier aanbieden.
Stapsgewijze invoering
De verordening is op 1 augustus 2024 in werking getreden, maar de verschillende onderdelen worden gefaseerd van toepassing. Dit geeft ontwikkelaars en aanbieders van hoog-risico AI gelegenheid om hun AI-systemen te laten voldoen aan de nieuwe eisen.
- Februari 2025: bepalingen op verboden AI
- Augustus 2025: eisen voor AI voor algemeen gebruik (general purpose AI)
- Augustus 2026: eisen voor hoog-risico AI-toepassingen en transparantieverplichtingen
- Augustus 2027: eisen voor hoog-risico AI-producten: volledige AI-verordening is dan van toepassing
- Augustus 2030: eisen voor hoog-risico AI-systemen bij overheidsorganisaties die vóór augustus 2026 op de markt zijn gebracht
De Europese Commissie gaat toezicht houden op de grote AI-modellen die voor veel verschillende doelen gebruikt kunnen worden. Nationale toezichthouders gaan erop toezien dat de eisen voor hoog-risico AI worden nageleefd. Dat wordt in nationale regelgeving vastgelegd.
Bron: ministerie van EZK
Geef een reactie