U heeft thema's geselecteerd om te volgen, maar deze worden niet opgeslagen zolang u niet bent ingelogd. Login of registreer om deze thema's te blijven volgen.

Commissies debatteren voor de eerste keer over AI Act

01 februari 2022 - door Ute De Meyer

De twee leidende commissie, namelijk Commissie interne markt en consumentenbescherming (IMCO) en de Commissie burgerlijke vrijheden, justitie en binnenlandse zaken (LIBE), wisselden op 25 januari samen van gedachten over de Artificial Intelligence Act (AI-Act). 

  • AI-technologie mag niet gebruikt worden voor privégebruik.
  • Massatoezicht en sociale scoring zullen op grond van de verordening verboden worden.
  • Ontwerpverslag LIBE en IMCO Commissie wordt verwacht op 20 april. 
Commissies debatteren voor de eerste keer over AI Act

Toelichting Commissie

Alvorens de discussie te starten, werd eerst het voorstel en de aanpak van de Commissie toegelicht door Roberto Viola (Directeur-Generaal bij DG CONNECT). Hij legde uit dat de benadering van het voorstel gebaseerd is op risico's en als een piramide kan geconcipieerd worden. De bodem van de piramide zou AI omvatten die weinig of geen regulering nodig heeft, terwijl de top van de piramide toepassingen bevat die een extreem hoog risico inhouden en meer regulering of een verbod vereisen. Voorbeelden van toepassingen met een hoog risico zijn diegene die gebruik maken van verborgen boodschappen om het menselijk gedrag op een gevaarlijke manier te beïnvloeden, waardoor de mens schade zou oplopen. 

Verder gaf hij mee dat het voorstel niet ingaat op het privégebruik van AI-technologie omdat dit bij standaard verboden is door de GDPR-regelgeving. Hij benadrukte ook dat Europa een aantrekkelijke plaats moet zijn voor AI-ontwikkelaars. Zo maakt AI deel uit van de besprekingen rond internationale samenwerking in de Raad voor Handel en Technologie. 

Tot slot, is geen enkele technologie onfeilbaar. Daarom moet er hier moet ook worden ingezet op het instellen van een mechanisme dat fouten kan opsporen, de verantwoordelijkheden voor die fouten kan identificeren, alsook de gevolgen ervan kan corrigeren. 

Visie rapporteurs

IMCO-rapporteur Brando Benifei (S&D, Italië) benadrukte dat het voorstel erop gericht moet zijn het juiste evenwicht te vinden tussen rechtszekerheid bieden aan bedrijven enerzijds en de bescherming van fundamentele rechten en vrijheden anderzijds. Als er onvoldoende bescherming is, zullen burgers en consumenten namelijk geen vertrouwen hebben in AI-producten. Hoewel hij de op risico's gebaseerde aanpak van de Commissie toejuichte, benadrukte Europarlementariër Benifei dat er meer discussies nodig zijn over AI met een hoog risico. 

Vervolgens stelde LIBE-rapporteur Dragoș Tudorache (Renew, Roemenië) drie vragen aan Roberto Viola over verboden praktijken, concurrentievermogen op het gebied van innovatie, en risico's voor de democratie. Uit de antwoorden kwam het volgende naar voor:

  • Massatoezicht en sociale scoring zullen op grond van de verordening verboden worden. Een uitzondering zou echter worden toegestaan voor een beperkt aantal gevallen, zoals arrestatiebevelen en terroristische aanslagen.
  • Verkiezingen, elektronisch stemmen en soortgelijke zaken vallen buiten de toepassing van het voorstel. 
  • De governancestructuur voor het concurrentievermogen op het gebied van innovatie is vergelijkbaar met die van de Data Governance Act en bestaat uit vertegenwoordigers van de Commissie en de lidstaten. Het doel is om de verantwoordelijkheden voor het opzetten van conformiteitsbeoordelingsinstanties te verdelen, zodat de lidstaten ook bevoegdheden krijgen.

De co-rapporteurs van de IMCO en LIBE Commissie zullen de komende maanden werken aan een ontwerpverslag, dat – voorlopig – op 20 april aan de commissies moet worden voorgelegd. De MEP’s hebben dan tot 26 april de tijd om amendementen op het ontwerpverslag in te dienen.

Adviesverlenende Commissies

Naast de twee bevoegde commissies, zijn er in dit dossier vijf andere Commissies waaraan advies wordt gevraagd, namelijk ENVI, ITRE, TRAN, CULT en JURI. 

De Commissie juridische zaken (JURI) hield hun eerste debat op 26 januari. Hier moedigde rapporteur Axel Voss (EPP, Duitsland) de MEP’s aan om zich meer open te stellen voor de opportuniteiten die deze technologie met zich kan meebrengen. Voorts somde Voss enkele punten op die hij belangrijk acht om verder te bediscussiëren, namelijk 

  • de transparantie van systemen met een hoog risico, 
  • de definities van AI en systemen met een hoog risico, 
  • hoe de kwestie van menselijke controle moet worden benaderd, 
  • en het schetsen van de specifieke risico's waartegen de EU zich zou moeten proberen te beschermen.

Deze Commissie zal, naar verwachting, hun ontwerpadvies voorleggen op 14 maart en stemmen op 16 mei. 

Wil je graag input leveren over de definitie van AI, hoe het kan worden gecombineerd met ethische normen…? Dan kan je jouw suggesties insturen voor 14 februari naar axel.voss@ep.europa.eu.
 

Jouw VLEVA-contact voor dit thema

Maak een account aan

Volg ons