Waarom is een AI-wet nodig?

Kunstmatige intelligentie moet werken voor de mens. En dat kan: kunstmatige intelligentie kan het dokters makkelijker maken om, bijvoorbeeld, kanker op te sporen, eentonige taken van ons overnemen en productieprocessen efficiënter en duurzamer maken. De mogelijkheden zijn eindeloos.

Maar als kunstmatige intelligentie op verkeerde wijze wordt ingezet, kan het ook een verwoestend effect hebben op onze samenleving. Een goed voorbeeld hiervan is het toeslagenschandaal, waar duizenden mensen door een algoritme van de Belastingdienst werden gediscrimineerd en onterecht beschuldigd van fraude.

Het toeslagenschandaal is geen opzichzelfstaand incident. Hoewel duidelijk werd hoe gevaarlijk het kan zijn om met algoritmes fraude op te sporen, gebruikte de gemeente Rotterdam dezelfde aanpak tot 2021 tegen bijstandsfraude en is het volgende algoritme alweer in ontwikkeling. In Denemarken en Spanje zijn vergelijkbare systemen ingezet.

Naast overheden op fraudeklopjacht zijn techbedrijven ook in AI geïnteresseerd – maar dan om snel geld te verdienen. De maatschappelijke gevolgen zijn opnieuw groot. Met ‘emotieherkennende’ camera’s en systemen houden ze hun werknemers in de gaten. Klinkt de callcentermedewerker niet vrolijk genoeg? Dan valt dat gelijk op. Ook worden ChatGPT en ‘deepfakes’ gebruikt om het internet met desinformatie te overspoelen.

 

vlag

Transparant ontwerp, veilig gebruik

Het begon in 2021 met een wetsvoorstel van de Europese Commissie. Dat moest het ontwerp en de technische standaarden van kunstmatige intelligentie bepalen. Het idee van de Commissie: als AI is getest op transparantie en er is geen sprake van discriminatie, dan kun je er verder mee doen wat je wilt. Voor GroenLinks zijn regels voor het ontwerp een essentiële eerste stap, maar moeten we daarna ook kijken naar hoe we AI precies gebruiken. Dat ontbrak totaal in het voorstel. En hoe beschermen we mensen tegen de impact van AI?

Na ruim een jaar onderhandelen door GroenLinks-Europarlementariër Kim van Sparrentak ligt er nu een deal op tafel in het Europarlement, dat de voorgestelde AI-wet van de Europese Commissie moet versterken. Kims belangrijkste missie tijdens de onderhandelingen was om ervoor te zorgen dat bij het gebruik van AI-systemen de rechten van mensen voorop staan.

En met succes: naast de ontwerpvoorstellen komen er, als het aan het Europarlement ligt, nu ook verplichtingen voor partijen die AI gebruiken, zoals de overheid, een bank, een school, universiteit, een zorgverzekeraar of grote social media-bedrijven. En de rechten van mensen die AI gebruiken worden beter gewaarborgd. Zo komt er een verplichte mensenrechtentoets, verplicht menselijk toezicht bij het gebruik van AI, krijgen mensen altijd informatie als er een beslissing wordt gemaakt over hen met behulp van AI en een recht op uitleg.

Vijf speerpunten van de AI-wet

De AI-wet is lang en complex. Om je toch een idee te geven, vind je hieronder onze vijf belangrijkste onderdelen van de wet:  

We voorkomen een tweede toeslagenaffaire
De slachtoffers van de toeslagenaffaire is onbeschrijfelijk veel leed aangedaan. Van links tot rechts is iedereen het daarom eens: dit mag nooit weer gebeuren. Maar als we op dezelfde voet verder gaan met de inzet van algoritmes om fraude bij burgers op te sporen, is het wachten op het volgende schandaal. Daarom stelt GroenLinks voor om het gebruik van ‘risicoprofilerende algoritmes' voor het voorspellen of opsporen van criminaliteit of fraude, zoals gebruikt door de Belastingdienst, te verbieden.

Ook streden we met succes voor een verplichte mensenrechtentoets (eerst in de Tweede Kamer, nu in Europa) en wordt menselijk toezicht verplicht bij het gebruik van AI. Mensen krijgen altijd informatie als er een beslissing met behulp van AI wordt genomen en een recht op uitleg. Zo staan mensen nooit meer met lege handen tegenover een computer of ambtenaar die al zijn verantwoordelijkheden aan een systeem probeert te delegeren.

We reguleren modellen als ChatGPT
Vooral de ontwikkelingen in het gebruik van ‘foundation models’, dat wil zeggen grote modellen op basis van gigantische data, zoals ‘large language models’ als ChatGPT of systemen die plaatjes maken, zoals Dall-E en Lensa, gaan razendsnel. Zelfs zo snel, dat steeds meer AI-wetenschappers aan de bel trekken over de gevaren van deze technologie. Ze zijn bang dat er systemen kunnen ontstaan waarvan niemand een idee heeft wat ze doen, hoe we ze verantwoord in kunnen zetten en hoe we deze kunnen controleren.

Aanvankelijk waren rechtse partijen huiverig om deze systemen te reguleren, waarschijnlijk beïnvloed door de techlobby die met zijn diepe zakken enorme druk zette op de onderhandelaars. Maar gelukkig is het ons gelukt om in het huidige voorstel sterke technische eisen voor foundation models te zetten.

Zoals auto's nu niet zomaar op de weg mogen, moeten risicovolle AI-systemen en grote modellen als ChatGPT volgens het Europees Parlement straks ook aan technische standaarden voldoen. Concreet betekent dit dat zij transparant, niet-discriminerend, niet foutgevoelig en veilig moeten zijn. Zo voorkomen we dat de samenleving de grip over deze systemen verliest.

ChatGPT

We verbieden gezichts-, emotie- en zogenaamde seksualiteit- of genderherkenning
Zonder dat wij het weten, hangen in Nederland al op veel straathoeken, in stadions en in supermarkten, maar ook in deurbellen, gezichtsherkenningcamera's. Het gaat in dit geval niet om het ontgrendelen van je telefoon, maar om camera’s die op straat je gezicht scannen en meteen zien wie jij bent.

Camera’s die onze biometrische gegevens analyseren, zijn gevaarlijk. Deze zogenaamde ‘slimme camera’s’ zijn niet alleen een grove schending van onze privacy, het maakt het ook mogelijk mensen te volgen, en er is ook weinig fantasie nodig om te bedenken wat autoritaire regimes met onze biometrische gegevens zouden kunnen uitrichten.

We treden hard op tegen deepfakes
Een deepfake is een video waarbij kunstmatige intelligentie wordt ingezet om iemand iets te laten doen of zeggen ondanks dat die persoon dit niet heeft gedaan. Dat kan grappig zijn als je Mark Rutte en Hugo de Jonge een kerstlied laat zingen, maar kan ook ontzettend schadelijk zijn.

Want, hoe beter de technologie wordt, hoe moeilijker het wordt om echt van deepfake te onderscheiden. Dat biedt kansen aan iedereen die desinformatie wil verspreiden en wil polariseren: zo kan je woorden in de mond van een politicus leggen die dat helemaal niet heeft gezegd.

Om het verspreiden van desinformatie en haat te voorkomen, wordt het in het voorstel van het Europees Parlement verplicht om te vermelden dat een deepfake inderdaad een deepfake is.

 

servers

We houden AI aan de klimaatdoelen
Veel AI-modellen hebben ontzettend veel rekenkracht, waardoor de milieu-impact enorm is. Op initiatief van GroenLinks staat nu in het voorstel van het Europees Parlement dat foundation models als ChatGPT en Lensa straks aan duurzaamheidseisen moeten voldoen. Op deze manier voorkomen we dat deze systemen ons straks in een diepere klimaatcrisis storten. Daarbovenop moet alle hoog-risico AI straks verplicht rapporteren wat hun energieverbruik en klimaatimpact is, zodat we een beter beeld krijgen van de grote impact van AI op het klimaat.

Ook goed om te weten

Aan verschillende AI-systemen, kleven natuurlijk verschillende risico's. De app op je telefoon die het weer voorspelt, brengt veel minder risico's mee dan een systeem dat fraude opspoort. Daarom delen we AI-systemen straks in drie categorieën in.

Hoe nu verder?

De deal is nog niet beklonken en staat onder druk van de EU-landen en de grote techlobby. Het Europees Parlement stemt in juni over de AI-wet zoals die nu is uitonderhandeld tussen de fracties in het Parlement. Maar ook de lidstaten beslissen mee over de uiteindelijke inhoud van de wet. De lidstaten bepaalden in november vorig jaar hun positie, die veel minder sterk is en vol met mazen en geitenpaadjes voor bedrijven en overheden zit – maar inmiddels zijn de ontwikkelingen zo razendsnel gegaan dat we hopen dat ze bijdraaien. Zij onderhandelen namelijk straks met het Europees Parlement over de uiteindelijke wettekst. Dit belooft nu al spannend te worden: een aantal lidstaten voelt veel minder voor de bescherming van mensenrechten en is eerder geneigd om naar de belangen van Big Tech te luisteren.