In 2024 is de AI Act (Artificiële Intelligentie Wet) van kracht in de Europese Unie. Deze wet regelt het gebruik van kunstmatige intelligentie (AI) in de EU. De wet is gebaseerd op een risico gebaseerde aanpak, waarbij AI-systemen worden ingedeeld in drie categorieën:
- Systemen met hoog risico: Deze systemen kunnen ernstige schade veroorzaken, zoals discriminatie, schendingen van de privacy of risico’s voor de menselijke veiligheid. Voor deze systemen gelden strengere regels, zoals een voorafgaande beoordeling door een onafhankelijke autoriteit.
- Systemen met middelhoog risico: Deze systemen kunnen minder ernstige schade veroorzaken, zoals economische schade of fouten in de medische diagnose. Voor deze systemen gelden minder strenge regels, maar er zijn nog steeds bepaalde eisen waaraan moet worden voldaan, zoals transparantie en accountability.
- Systemen met laag risico: Deze systemen veroorzaken geen of minimale schade. Voor deze systemen gelden geen specifieke regels.
De AI Act heeft een aantal belangrijke gevolgen voor bedrijven die AI-systemen ontwikkelen, in de handel brengen of gebruiken. Zo moeten bedrijven ervoor zorgen dat hun AI-systemen voldoen aan de eisen van de wet. Dit kan bijvoorbeeld betekenen dat bedrijven hun AI-systemen moeten testen op discriminatie, moeten zorgen voor transparantie over hoe hun systemen werken en moeten voorzien in mogelijkheden voor gebruikers om bezwaar te maken tegen beslissingen die door AI-systemen worden genomen.
De AI Act is een belangrijke stap in de richting van een verantwoord gebruik van AI in de EU. De wet helpt om ervoor te zorgen dat AI-systemen veilig, betrouwbaar en ethisch zijn.
Naast de AI Act zijn er ook andere regelgevingen van belang voor de ontwikkeling en het gebruik van AI. Zo zijn er bijvoorbeeld regels inzake privacy, gegevensbescherming en consumentenbescherming die van toepassing kunnen zijn op AI-systemen.
In Nederland is de AI Act geïmplementeerd in de Wet op de kunstmatige intelligentie (WeKI). Deze wet treedt in werking op 1 januari 2025.