Verordening kunstmatige intelligentie: stand van zaken

15 februari 2024 - door Kristof Vlaeminck

Welke impact kunstmatige intelligentie precies op jouw leven zal hebben, kan alleen de toekomst uitwijzen. Maar ben je alvast benieuwd hoe de eerste regelgeving wereldwijd voor kunstmatige intelligentie eruit zal zien ? Dat kan je in dit artikel lezen.

  • Het Europees Parlement is op weg om de verordening kunstmatige intelligentie (AI Act) goed te keuren.

  • De verordening heeft als doel de grondrechten, de democratie, de rechtsstaat en de duurzaamheid van het milieu te beschermen tegen kunstmatige intelligentie met een hoog risico.

  • Het is echter ook de bedoeling om innovatie te stimuleren en van Europa een koploper op het gebied van kunstmatige intelligentie te maken.

In december kon je lezen hoe de Raad en het Parlement een voorlopig akkoord bereikten over de allereerste regels voor kunstmatige intelligentie. Ondertussen heeft het proces om tot de verordening kunstmatige intelligentie te komen niet stilgestaan. De Commissies Interne markt en consumentenbescherming (IMCO) en Burgerlijke vrijheden, justitie en binnenlandse zaken (LIBE) van het Europees Parlement hebben de tekst goedgekeurd. Naar alle waarschijnlijkheid zal het Europees Parlement in april deze positie volgen. Daarna is het de beurt aan de Raad van de EU. Twee jaar na de definitieve goedkeuring zal de wet automatisch in de gehele EU van toepassing zijn.

Aanpak verordening gebaseerde op risico

Het regelgevingskader definieert vier risiconiveaus voor kunstmatige intelligentiesystemen: onaanvaardbaar risico, hoog risico, beperkt risico en minimaal risico.

Alle systemen die een duidelijke bedreiging vormen voor de veiligheid, het levensbestaan en de rechten van de mens zullen worden verboden. Dit gaat van het geven van sociale scoresysteem door overheden tot speelgoed dat spraaktechnologie gebruikt en gevaarlijk gedrag aanmoedigt.

Voor systemen die als hoog risicovol zijn geclassificeerd vanwege hun significante potentiële schade aan gezondheid, veiligheid, grondrechten, milieu, democratie en de rechtsstaat, zijn duidelijke verplichtingen overeengekomen. Zo wordt er een verplichte beoordeling van de gevolgen voor de grondrechten vereist. Kunstmatige intelligentiesystemen die worden gebruikt om de uitkomst van verkiezingen en het gedrag van kiezers te beïnvloeden, worden bijvoorbeeld geclassificeerd als zeer riskant. Burgers krijgen het recht om klachten in te dienen over systemen en transparantie te eisen over beslissingen over systemen met hoog risico die een impact hebben op hun rechten.

Verboden toepassingen die een bedreiging kunnen vormen voor de burgerrechten en de democratie

  • Biometrische categoriseringssystemen die gebruik maken van gevoelige kenmerken (bijv. politieke, religieuze, filosofische overtuigingen, seksuele geaardheid, ras);

  • Verzamelen op grote schaal van gezichtsbeelden van het internet of camerabeelden om databanken van gezichtsherkenning te creëren;

  • Emotieherkenning op de werkplek en in onderwijsinstellingen;

  • Sociaal scoresysteem op basis van sociaal gedrag of persoonlijke kenmerken;

  • Systemen die menselijk gedrag manipuleren om hun vrije wil te omzeilen;

  • Kunstmatige intelligentie die wordt misbruikt om de kwetsbaarheid van mensen uit te buiten (vanwege hun leeftijd, handicap, sociale of economische situatie).

Overeenstemming over waarborgen en uitzonderlijke uitzonderingen voor biometrische identificatiesystemen

Biometrische identificatiesystemen (Remote Biometric Identification - RBI) in openbaar toegankelijke ruimten is enkel toegestaan voor rechtshandhavingsdoeleinden, op voorwaarde dat een rechter voorafgaande toestemming geeft en voor strikt gedefinieerde lijst van misdrijven. "Post-remote" RBI kan enkel toegepast worden bij het gericht zoeken naar een persoon die veroordeeld is of verdacht wordt van een ernstig misdrijf.

"Realtime" RBI moet voldoen aan strikte voorwaarden en het gebruik ervan zou beperkt zijn in tijd en plaats, ten behoeve van:

  • Gerichte opsporing van slachtoffers (ontvoering, mensenhandel, seksuele uitbuiting);

  • Preventie van een specifieke en acute terroristische dreiging;

  • Lokaliseren of identificeren van een persoon die verdacht wordt van het plegen van een van de specifieke misdrijven die in de verordening worden genoemd (bijv. terrorisme, mensenhandel, seksuele uitbuiting, moord, ontvoering, verkrachting, gewapende overval, deelname aan een criminele organisatie, milieucriminaliteit).

Transparantie voor algemene kunstmatige intelligentiesystemen

De verordening houdt reeds rekening met het brede scala aan taken dat kunstmatige intelligentiesystemen kunnen uitvoeren en de snelle uitbreiding van de mogelijkheden. De systemen voor algemene kunstmatige intelligentie (general-purpose AI - GPAI) en de GPAI-modellen waarop ze zijn gebaseerd, moeten voldoen aan specifieke transparantievereisten. Dit houdt onder meer in dat een technische documentatie beschikbaar is, dat de EU-wetgeving inzake auteursrecht moet worden nageleefd en dat duidelijk is welke inhoud wordt gebruikt voor de training van het systeem.

Voor GPAI-modellen met grote impact en systeemrisico's zijn onderhevig aan strengere verplichtingen. Deze modellen moeten modelevaluaties en contradictoire tests uitvoeren, systeemrisico’s beoordelen en beperken, ernstige incidenten aan de Europese Commissie melden, zorgen voor cyberveiligheid en rapporteren over hun energie-efficiëntie.

Innovatie en KMO’s worden ondersteund

Bedrijven, en KMO’s in het bijzonder, krijgen de mogelijkheid om kunstmatige intelligentiesystemen te verbeteren met behulp van regulatory sandboxes en real-world-testing. Doel is om innovatieve systemen te ontwikkelen en trainen voordat het op de markt komt, zonder druk van industriële reuzen die de waardeketen beheersen.

Indien je meer wil weten over die regulatory sandboxes, raadpleeg dan zeker de Reflectiepaper 'AI Regulatory Sandbox in Vlaanderen' van het Departement Wetenschap, Economie en Innovatie. Hierin kom je meer te weten over wat een regulatory sandbox precies is, wat de voordelen zijn en hoe die er precies uit gaan zien.

Sancties en inwerkingtreding

Niet-naleving van de regels kan leiden tot boetes variërend van 35 miljoen euro of 7% van de wereldwijde omzet tot 7,5 miljoen of 1,5% van de omzet, afhankelijk van de overtreding en de grootte van het bedrijf.

Commissie richt Europees Bureau voor Artificiële Intelligentie op

De oprichting van het Europees Bureau voor Artificiële Intelligentie (European Artificial Intelligence Office) was vorig jaar lange tijd een struikelblok voor enkele EU-lidstaten. Uiteindelijk zijn de betrokken landen overstag gegaan en werd er een akkoord gevonden voor de oprichting van dit bureau. Het zal onderdeel uitmaken van het Directoraat-generaal Communicatienetwerken, Inhoud en Technologie (DG Connect) en zal instaan voor de uitvoering van de verordening kunstmatige intelligentie.

Burgerpanel beEU discussieert over kunstmatige intelligentie

Het Belgische voorzitterschap selecteerde een burgerpanel. 60 burgers werden geselecteerd om deel te nemen, rekening houdend met geografische en taalkundige spreiding, alsook met een maximale representativiteit voor de Belgische bevolking op het vlak van gender, leeftijd, beroep, opleidingsniveau en een duidelijke inclusie van jongeren die in 2024 voor het eerst zullen stemmen voor de Europese verkiezingen. 

Deze burgers komen gedurende drie weekends samen in Brussel om te discussiëren over kunstmatige intelligentie in de context van het EU-beleid en om hun visie op de toekomst te delen.  Het panel zal dit onderwerp vanuit verschillende invalshoeken benaderen, waaronder veiligheid, ethiek, werkgelegenheid, sociale zaken, technologische soevereiniteit, economisch concurrentievermogen, democratie en politiek.

De panels volgen een methodologie die begint met een inleiding op het thema en een verkenning van de praktische toepassingen van kunstmatige intelligentie. De deelnemers zullen discussiëren met deskundigen op dit gebied en met beleidsmakers. Na drie weekends beraadslaging zullen de conclusies van het panel dienen als inspiratiebron voor de Europese strategische agenda 2024-2029.

Meer informatie