Nieuwe EU-regels dwingen AI-bedrijven tot transparantie

Elwin Hodžić
0

Sinds 2 augustus gelden in de EU regels voor algemene AI-modellen (GPAI), ondanks kritiek uit de sector. Een gedragscode moet verduidelijken wat dit concreet betekent voor aanbieders.

Laatste moment verordening bijna gestrand

Op het laatste moment dreigde de Europese AI-verordening alsnog te ontsporen. Verschillende invloedrijke AI-aanbieders en lidstaten pleitten voor uitstel van onderdelen van de wet, omdat de Europese Commissie achterliep met essentiële voorbereidingen. Pas medio juli 2025 verscheen – na veel vertraging – een set moeizaam afgestemde richtlijnen voor AI-aanbieders.


Op de hoogte blijven van alles omtrent AI?

Schrijf je in voor onze gratis nieuwsbrief:

Ontvang elke week het laatste IT-nieuws, de handigste tips en speciale aanbiedingen.


Gedragscode voor GPAI-modellen

De richtlijnen zijn specifiek bedoeld voor aanbieders van AI-modellen met een algemeen gebruiksdoel (GPAI). Een bijbehorende gedragscode moet hen helpen om hun systemen in lijn te brengen met de AI-verordening. Tegelijk geeft de Europese Commissie in deze richtlijnen een concrete definitie van wat onder GPAI valt. Sinds 2 augustus zijn de bepalingen uit hoofdstuk V van de AI-wet, die GPAI reguleren, officieel van kracht.

Kritiek uit het bedrijfsleven

Bedrijven blijven zich zorgen maken over de impact van de AI-regels. Siemens-CEO Roland Busch uitte in de Frankfurter Allgemeine Zeitung kritiek op de Europese aanpak: “Daarom kunnen we hier geen volle kracht vooruit geven.” Volgens hem belemmert regelgeving, zoals de AI Act, innovatie in Europa.

De EU houdt echter vast aan bindende regels voor AI-systemen. Critici vrezen dat Europa hierdoor terrein verliest tegenover de VS en China. EU-vicevoorzitter Henna Virkkunen ziet juist in regulering de enige houdbare weg vooruit. Verzoeken van grote bedrijven – waaronder Alphabet, Meta en Mistral – om de invoering uit te stellen, zijn afgewezen. “Geen uitstel, geen pauze, geen overgangsperiode”, aldus EU-woordvoerder Thomas Regnier.

Flexibele aanvulling via gedelegeerde regelgeving

Omdat zowel het AI-begrip als de onderliggende technologie snel evolueert, heeft de wetgever ervoor gekozen om belangrijke onderdelen van de regulering onder te brengen in gedelegeerde handelingen. Die kunnen sneller worden aangepast dan de hoofdtekst van de AI-verordening, wat de wet flexibeler maakt.

Tegelijk blijven veel bepalingen op hoofdlijnen geformuleerd. Er staat bijvoorbeeld niet precies hoe partijen als OpenAI, Meta, Mistral of Anthropic hun modellen moeten beheersen. In plaats daarvan worden aanbieders verplicht om systematische risico’s – vooral die met impact op fundamentele rechten – actief te identificeren, te analyseren en te documenteren.

Meer duidelijkheid over wat GPAI precies is

Grote AI-aanbieders drongen aan op duidelijkheid — en die is er nu deels gekomen. De nieuwe EU-richtlijnen verduidelijken wanneer een model als General Purpose AI (GPAI) wordt aangemerkt en wanneer de zwaardere regels voor systemische risico’s gelden. De AI-verordening zelf bevat al een harde grens: modellen die tijdens training meer dan 1025 teraflops aan rekenkracht vereisen, vallen automatisch onder de strengste verplichtingen volgens artikel 3, lid 67.

Maar ook onder die grens kunnen modellen als risicovol worden aangemerkt. In zulke gevallen gelden extra zorgvuldigheidseisen. Doorslaggevend is dan in hoeverre de functionaliteit van het model door de aanbieder is beperkt. Hoe beperkter het beoogde gebruik — bijvoorbeeld alleen voor spraak- of muziekgeneratie — hoe kleiner het geachte risico.

GPAI-modellen raken massaal onder regulering

GPT-4 van OpenAI overschreed de drempel van 1025 teraflops al begin 2023. Volgens experts voldoen inmiddels vrijwel alle grootschalige taalmodellen van toonaangevende ontwikkelaars aan de voorwaarden om als GPAI met systemisch risico te worden geclassificeerd.

Dit heeft directe juridische gevolgen: aanbieders die zulke modellen op de Europese markt introduceren — ongeacht of dat via eigen apps, websites of via derden gebeurt — zijn verplicht melding te doen bij het nieuw opgerichte AI-bureau van de Europese Commissie.


Op de hoogte blijven van alles omtrent AI?

Schrijf je in voor onze gratis nieuwsbrief:

Ontvang elke week het laatste IT-nieuws, de handigste tips en speciale aanbiedingen.


Richtlijnen niet bindend, maar wel richtinggevend

De Europese Commissie benadrukt dat de richtlijnen het resultaat zijn van een brede publieke consultatie, waarin honderden belanghebbenden — waaronder bedrijven, maatschappelijke organisaties en academici — hun visie konden geven.

Hoewel deze richtlijnen formeel niet juridisch bindend zijn, geven ze wel duidelijk richting aan hoe de Commissie de bepalingen uit de AI-verordening interpreteert. Daarmee vormen ze de praktische basis voor toezicht en handhaving door het toekomstige AI-bureau.

Gedragscode als leidraad voor GPAI-aanbieders

Parallel aan de EU-richtlijnen werkte een expertgroep bijna een jaar lang aan een gedragscode voor aanbieders van algemene AI-modellen (GPAI). Deze GPAI Code of Practice (CoP) werd begin juli 2025 in definitieve vorm gepubliceerd en bestaat uit drie onderdelen.

De gedragscode is bedoeld als praktisch hulpmiddel om AI-modellen in lijn te brengen met de AI-verordening én met de stand van de techniek. De set bevat onder meer invulbare Word-checklists waarmee aanbieders hun naleving kunnen documenteren en structureren.

Inhoud van de gedragscode (GPAI-CoP)

De GPAI Code of Practice bestaat uit drie hoofdonderdelen. Het eerste deel richt zich op transparantie: aanbieders moeten duidelijk maken wie verantwoordelijk is voor het AI-model, met welke gegevens het systeem is getraind en door wie, en wat het resourcegebruik tijdens de ontwikkeling was.

Het tweede deel behandelt het auteursrecht. Hoewel de EU specifieke uitzonderingen toestaat voor tekst- en datamining ten behoeve van AI-training, verplicht de gedragscode aanbieders om geen evident onrechtmatig verkregen data te gebruiken. Daarnaast dienen ze beperkingen zoals die in robots.txt-bestanden worden aangegeven, te respecteren.

Het derde en meest gevoelige onderdeel betreft risicobeheersing. De potentiële risico’s variëren van het genereren van deepfakeporno tot assistentie bij het ontwerpen van chemische, biologische of nucleaire wapens. Voor deze thema’s biedt de gedragscode vooral algemene kaders en uitgangspunten — geen kant-en-klare oplossingen.

Bedrijven moeten kleur bekennen

Pas kort voor de inwerkingtreding op 2 augustus werd duidelijk welke bedrijven zich aan de gedragscode zouden verbinden. Microsoft, OpenAI en Anthropic hadden op dat moment intentieverklaringen ondertekend. Google had nog geen definitief standpunt ingenomen.

Meta weigerde expliciet zich aan de gedragscode te binden. Joel Kaplan, Chief Global Affairs Officer bij Meta, verklaarde dat “Europa op het gebied van AI de verkeerde weg inslaat.” Sinds de herverkiezing van Donald Trump voert Meta bovendien een steeds assertievere koers ten aanzien van Europese regelgeving, met een duidelijke neiging tot confrontatie.

Overgangstermijnen en definitie van ‘nieuw’

Bedrijven krijgen de ruimte om hun processen en systemen aan te passen: de verplichtingen uit de AI-verordening zijn pas vanaf augustus 2026 handhaafbaar. Voor AI-modellen die ná 2 augustus 2025 op de markt verschijnen, geldt zelfs een langere overgangstermijn tot augustus 2027.

De Europese Commissie verduidelijkte tegenover c’t dat een model niet als “nieuw” wordt aangemerkt wanneer het grotendeels voortbouwt op de rekeninfrastructuur van een bestaand model, of wanneer het slechts opnieuw is getraind met behoud van dezelfde architectuur.

Tot slot

Of andere aanbieders het voorbeeld van Meta volgen, is nog onduidelijk. Wel staat vast dat bedrijven die zich níet aan de gedragscode verbinden, een belangrijk voordeel mislopen: naleving ervan geldt in principe als bewijs van zorgvuldigheid en nalevingsbereidheid – de zogenoemde vermoedensregel.

Juist dat punt kan zwaar meewegen voor Europese bedrijven die zelf GPAI-modellen willen ontwikkelen. Zonder dat vangnet wordt de juridische onzekerheid groter, en dat kan invloed hebben op investeringen of zelfs op de dekking van bestuurdersaansprakelijkheidsverzekeringen.

Met de komst van de nieuwe richtlijnen is in elk geval een deel van die onzekerheid weggenomen. De Europese Commissie blijft bij haar koers en ziet geen aanleiding om de invoering uit te stellen.


Op de hoogte blijven van alles omtrent AI?

Schrijf je in voor onze gratis nieuwsbrief:

Ontvang elke week het laatste IT-nieuws, de handigste tips en speciale aanbiedingen.


Deel dit artikel

Elwin Hodžić
Elwin Hodžić(Web)redacteur bij c't. Ondanks de studie geschiedenis, altijd al een passie gehad voor alles wat met IT te maken heeft. Sleutelt in zijn vrije tijd graag aan pc’s, van de hardware tot het uitpluizen van de BIOS-instellingen om een pc zo optimaal mogelijk te laten werken.

Lees ook

Microsoft 365 bewaart documenten ongevraagd in de cloud

Microsoft 365 programma's (Office 365) zullen in de toekomst nieuw aangemaakte bestanden automatisch opslaan in de cloud, De verandering wordt het ee...

GitHub Copilot krijgt securityboost via JFrog

JFrog en GitHub koppelen een reeks tools en functies om code, deployment en supply chain te beveiligen – met Copilot en in Actions.

0 Praat mee
avatar
  Abonneer  
Laat het mij weten wanneer er