Wat vindt ChatGPT zelf van de Europese AI-plannen?

Het Europees Parlement zette het licht op groen voor een nieuwe artificiële intelligentiewet. Die moet de mogelijk gevaarlijke gevolgen van artificiële intelligentie (AI) voor burgers inperken.

3 min. leestijd
Bron foto: iStock

De toekomst ziet er veelbelovend uit voor alle AI-toepassingen die als paddenstoelen uit de grond schieten. Maar er zijn ook risico’s aan verbonden, zo vertelt Europarlementariër Kim van Sparrentak (GroenLinks). “Een ChatGPT dat complottheorieën uitspuwt, onze privacy schendt, lak heeft aan intellectuele eigendomsrechten en ontzettend veel energie slurpt. Als we willen dat AI de maatschappij vooruithelpt, moeten we nu optreden en daar sterke voorwaarden aan verbinden.”

Steigeren

Het Europees Parlement zette daarom met een overweldigende meerderheid het licht op groen voor een nieuwe Europese AI-wet. Europarlementariër Paul Tang (PvdA) reageert verheugd op de nieuwe regels. “Vandaag geeft het Europees Parlement het startschot van de digitale revolutie. Europa gaat als eerste wereldmacht regels opstellen voor het gebruik van AI. Belangrijk om een digitale dystopie te voorkomen.”

Maar ook ChatGPT zelf ziet de noodzaak in van wetgeving. Toen we het systeem om zijn mening vroegen, kregen we dit antwoord: “De Europese AI-wet is een belangrijke stap. Het streven naar veiligheid, transparantie en ethisch verantwoord gebruik van AI-systemen is van cruciaal belang. Want de invloed en impact van deze technologieën groeit.”

Vlak voor de stemming werd het nog wel even spannend. Op het laatste moment begonnen de Europese christendemocraten te steigeren. Zij wilden dat AI ook real-time gezichtsherkenning zou mogen gebruiken in het geval van terrorisme en vermiste personen. De Europese liberalen en progressieven wilden dat dit enkel achteraf mogelijk zou zijn; tijdens onderzoeken naar zware misdaden. De liberalen en progressieven trokken uiteindelijk aan het langste eind. 

“Hoog risico”

Kort samengevat komt de AI-wet met een gelaagd systeem waarbij AI-toepassingen beperkingen worden opgelegd naargelang hoe risicovol ze zijn. Zo verbiedt de wet volledig het gebruik van AI-systemen die de menselijke waardigheid aantasten. Ook mogen deze systemen niet discrimineren, noch de veiligheid en privacy van individuen in gevaar brengen. Denk daarbij aan systemen die de emoties van migranten in kaart brengen. Of systemen die inschatten of iemand een misdaad zal begaan. Aan dat laatste maakte onze belastingdienst zich schuldig tijdens het toeslagenschandaal.

AI-toepassingen die de stempel “zeer risicovol” krijgen, mogen wel op de Europese markt komen, maar moeten voldoen aan strenge regels. Zo moeten bedrijven onderzoeken wat de impact van hun product is op mensenrechten en milieu, en voor databeheer gelden zeer strikte regels. Een voorbeeld van “zeer risicovolle” AI is een toepassing die verkiezingen kan beïnvloeden door te bepalen welke informatie mogelijke stemmers op sociale media te zien krijgen.

Voor generatieve AI, zoals tekstschrijver ChatGPT, komen er vooral veel transparantie-eisen bij. Om misinformatie te voorkomen, moeten toepassingen die content produceren die ‘echt’ lijkt, hier een duidelijk AI-label aan toevoegen. Wanneer toepassingen content produceren op basis van materiaal dat auteursrechtelijk beschermd is, moet bedrijven hier duidelijk over zijn.

Technologische vooruitgang

Zelf ziet ChatGPT nog wel ruimte voor verbetering: “Je kunt betogen dat bepaalde termen, zoals “gevaarlijke AI-systemen” of “menselijke waardigheid”, niet voldoende duidelijk zijn gedefinieerd. Hierdoor is er ruimte voor interpretatieverschillen en onzekerheid bij de naleving van de wetgeving.”

Ook denkt ChatGPT dat effectief toezicht op de naleving van de regels moeilijk zal zijn. Net als het doorgronden van de technische complexiteit van AI-systemen. “Hierdoor is de wetgeving in de praktijk mogelijk minder effectief”, aldus ChatGPT

Verder ziet het systeem nog problemen op het vlak van technologische vooruitgang. “Critici kunnen beweren dat de wetgeving te veel nadruk legt op veiligheid en transparantie. Hierdoor is er minder ruimte voor experimenten en innovatie die grote maatschappelijke voordelen kunnen opleveren.” Europarlementariërs hebben echter een clausule toegevoegd waarbij AI voor onderzoeksdoeleinden niet aan de strenge voorwaarden moet voldoen. 

Mooi idee
Eerste reacties
Strak plan
Schiettent
Chefsache
Nieuwe wet

Meer over de zes fases in het Europese besluitvormingsproces lees je hier.