Wat is de AI-wet van de EU?
De AI-wet van de EU is de belangrijkste wet van de Europese Unie om kunstmatige intelligentie te reguleren, en de eerste uitgebreide AI-wetgeving ter wereld, die een wettelijk kader creëert om de risico's van AI aan te pakken en tegelijkertijd innovatie aan te moedigen.

De AI-wet van de EU is de belangrijkste wet van de Europese Unie om kunstmatige intelligentie te reguleren, en de wereldwijde eerste uitgebreide AI-wetgeving. Formeel bekend als Verordening (EU) 2024/1689creëert het een wettelijk kader om de risico's van AI aan te pakken en tegelijkertijd innovatie aan te moedigen.
De wet volgt een op risico gebaseerde aanpak, dat wil zeggen dat ze regels oplegt in verhouding tot het potentieel van een AI-systeem om schade aan te richten. Door normen te stellen voor betrouwbare AI, de EU wil ervoor zorgen dat AI-systemen in Europa veilig en transparant zijn en de grondrechten respecteren.
Samenvatting op hoog niveau
De EU-AI-wet introduceert vereisten voor AI-ontwikkelaars (leveranciers) en gebruikers (implementatoren), afhankelijk van de het risiconiveau van het systeem. De meeste verplichtingen komen toe aan degenen die zorgen voor of AI-systemen met een hoog risico op de markt, zelfs als ze buiten de EU zijn gevestigd. Gebruikers (organisaties die AI inzetten in hun activiteiten) hebben minder taken, maar moeten wel zorgen voor het juiste gebruik van AI met een hoog risico. Hieronder vindt u een samenvatting van waarom deze regels nodig zijn, waarom ze belangrijk voor u zijn en hoe organisaties ze kunnen gaan toepassen.
Waarom hebben we regels over AI nodig?
AI-technologie kan enorme voordelen opleveren — van betere gezondheidszorg tot efficiënt vervoer — maar het kan ook brengt nieuwe risico's met zich mee. In tegenstelling tot traditionele software kan geavanceerde AI op ondoorzichtige manieren werken. In veel gevallen is het onmogelijk om te weten waarom een AI-systeem heeft een beslissing genomen, waardoor het moeilijk is om te bepalen of iemand onterecht is benadeeld (bijvoorbeeld bij een aanwervingsbeslissing of een aanvraag voor een algemeen nut).
De bestaande wetten hebben geen volledig gelijke tred gehouden met dergelijke uitdagingen. De AI-wet van de EU is bedoeld om deze leemte op te vullen door het voorkomen van schadelijke gevolgen en ervoor zorgen dat Europeanen AI kunnen vertrouwen.
Simpel gezegd, de regels zijn bedoeld om AI veilig en verantwoordelijk te maken. Ze verbieden de gevaarlijkste AI-praktijken en stellen eisen aan anderen om risico's te minimaliseren. Dit helpt bij het aanpakken van problemen zoals vooringenomenheid of discriminatie door AI, gebrek aan transparantie en veiligheidsfouten, die niet voldoende worden gedekt door de huidige regelgeving.
Waarom zou het je iets kunnen schelen?
Als uw organisatie AI-systemen gebruikt of ontwikkelt, heeft de EU-AI-wet waarschijnlijk gevolgen voor u. Niet-naleving kan leiden tot forse boetes — tot €35 miljoen of 7% van de wereldwijde jaaromzet voor de ernstigste overtredingen. Maar naast boetes gaat het ook om de bescherming van uw bedrijf en belanghebbenden. AI-tools die in HR worden gebruikt (zoals software voor het sorteren van cv's voor rekrutering) zijn bijvoorbeeld geclassificeerd als „hoog risico” en moet voldoen aan strenge eisen om eerlijkheid te waarborgen. Als je afhankelijk bent van AI voor aanwerving, klantenservice of besluitvorming, moet je de wet begrijpen om illegale praktijken te vermijden (zoals geheime AI die gebruikers manipuleert) en om het vertrouwen met werknemers en klanten te behouden.
Nalevingsteams moeten opletten omdat de wet nieuwe verplichtingen introduceert die vergelijkbaar zijn met de wetgeving inzake gegevensbescherming, maar gericht zijn op AI. En HR-teams moeten zich zorgen maken, want AI die mensen profileert of beslissingen over individuen automatiseert (van sollicitaties tot prestatie-evaluaties) zal worden gereguleerd om discriminatie te voorkomen en transparantie te handhaven. Kortom, zorg dragen voor de AI-wet betekent zorg dragen voor ethisch, rechtmatig gebruik van AI — dat steeds belangrijker wordt voor reputatie en risicobeheer.
Hoe kunnen organisaties dit toepassen?
Het toepassen van de AI-wet begint met het begrijpen van uw AI-systemen en hun risicocategorie. Een praktische eerste stap is het inventariseren van de AI-toepassingen die uw bedrijf gebruikt of levert, en om te bepalen onder welk risiconiveau elk ervan valt (zie de risiconiveaus hieronder). Voor elk systeem:
- Als het een hoog risico is: Wees voorbereid om een reeks controles te implementeren voor en tijdens het gebruik van de AI. Dit omvat risicobeoordelingen, strikt gegevensbeheer om vooringenomenheid te voorkomen, het bijhouden van gedetailleerde documentatie en logboeken, menselijk toezicht en ervoor zorgen dat de resultaten nauwkeurig en verklaarbaar zijn. U zult waarschijnlijk conformiteitsbeoordelingen moeten ondergaan (soms met een aangemelde instantie) voordat u dergelijke AI kunt inzetten, en het systeem moeten registreren in een EU-database van AI met een hoog risico.
- Als het een beperkt risico is: Plan transparantiemaatregelen, zoals openbaarmaking van gebruikers (bijvoorbeeld mensen vertellen dat ze interactie hebben met een AI-chatbot) en het labelen van door AI gegenereerde inhoud. Dit zijn over het algemeen eenvoudigere verplichtingen (hieronder meer besproken).
- Als het risico minimaal is: Op grond van de wet is geen specifieke actie nodig, maar het is nog steeds een goede gewoonte om ethische richtlijnen te volgen en deze systemen te controleren.
Voor elk AI-systeem moeten organisaties AI-compliance integreren in hun processen. Dit betekent dat de checklisten voor aanbestedingen, de vereisten van leveranciers en het interne beleid moeten worden bijgewerkt om rekening te houden met overwegingen van de AI-wet. Geef personeel training over AI-transparantie en -risico's (de wet introduceert zelfs verplichtingen inzake „AI-geletterdheid”, waarbij de nadruk ligt op educatie rond AI). Maak gebruik van begeleidingsdocumenten en hulpmiddelen van toezichthouders.
Bijvoorbeeld een interactieve tool voor nalevingscontrole is beschikbaar om bedrijven te helpen erachter te komen of de wet van toepassing is op hun AI en welke verplichtingen ze hebben. Het kan je helpen bij vragen over het doel, de gebruikers en de impact van je AI. Overweeg ten slotte om professioneel juridisch advies in te winnen voor een grondige nalevingsstrategie, vooral als u AI inzet op gevoelige gebieden zoals HR, financiën of gezondheidszorg.
EU-AI-wet: verschillende regels voor verschillende risiconiveaus

De AI-wet van de EU definieert vier niveaus van AI-systemen op basis van risico: onaanvaardbaar, hoog, beperkt, en minimaal of geen risico. De mate van regulering neemt toe met het risico. AI met een onaanvaardbaar risico is ronduit verboden. AI met een hoog risico is toegestaan, maar sterk gereguleerd. AI met een beperkt risico is onderworpen aan transparantievereisten, en AI met een minimaal risico is meestal niet gereguleerd. Hieronder leggen we elke categorie uit:
Onacceptabel risico
AI-systemen met een onaanvaardbaar risico zijn volledig verboden op grond van de wet. Dit zijn AI-toepassingen die worden beschouwd als een duidelijke bedreiging voor de veiligheid, het levensonderhoud of de rechten van mensen. De wet verbiedt praktijken zoals:
- Manipulatieve of uitbuitende AI dat iemands gedrag op een schadelijke manier wezenlijk vervormt (bijvoorbeeld speelgoed dat gebruikmaakt van stem-AI om kinderen te misleiden tot onveilige handelingen).
- Sociale scores systemen die mensen rangschikken op basis van persoonlijk gedrag of kenmerken (vergelijkbaar met een „sociaal kredietsysteem”).
- Biometrische identificatie en bewaking in openbare ruimtes, zoals realtime gezichtsherkenning in grote groepen, en AI die mensen categoriseert op basis van biometrische kenmerken (bijvoorbeeld naar etniciteit of geslacht) in gevoelige contexten.
- AI die crimineel gedrag of risico voorspelt (zogenaamd voorspellend politiewerk) uitsluitend gebaseerd op profilering of persoonlijke gegevens, zonder enige menselijke beoordeling.
Er zijn enkele beperkte uitzonderingen. Zo kan bepaalde biometrische identificatie op afstand (gezichtsherkenning) achteraf door de politie worden toegestaan (niet in realtime) om ernstige misdrijven te onderzoeken, maar alleen met toestemming van de rechtbank en onder strikte voorwaarden. Maar over het algemeen deze risicovolle toepassingen van AI op het gebied van surveillance en manipulatie zijn verboden regelrecht om de grondrechten te beschermen.
Hoog risico
AI-systemen met een hoog risico zijn diegene die de veiligheid of de grondrechten van mensen aanzienlijk kunnen aantasten als ze niet goed werken of worden misbruikt. De wet bevat twee belangrijke categorieën met een hoog risico:
AI als veiligheidscomponenten van gereguleerde producten: Als AI wordt gebruikt in producten die al onder de EU-veiligheidsnormen vallen — zoals AI in auto's, luchtvaart, medische apparatuur, speelgoed of industriële machines — en het product een conformiteitsbeoordeling vereist, dan is de AI een hoog risico. Een AI die bijvoorbeeld het remmen in een autonome auto regelt, zou een hoog risico vormen.
AI in kritieke domeinen met grote impact op individuen: Gebruikte AI-systemen op specifieke gebieden die in de wet zijn opgenomen vormen een hoog risico en moeten vóór de implementatie worden geregistreerd in een EU-database. Deze gebieden omvatten:
- Beheer van kritieke infrastructuur (bijvoorbeeld AI die de elektriciteits- of watervoorziening beheert)
- Onderwijs en beroepsopleiding (bijvoorbeeld AI-beoordelingsexamens of het bepalen van de toelating tot school)
- Werkgelegenheid en HR (bijvoorbeeld AI voor het werven, promoten of monitoren van de prestaties van werknemers)
- Essentiële private/openbare diensten (bijv. kredietscore die beslist over leningen of het in aanmerking komen voor een bijstandsuitkering)
- Wetshandhaving (bijv. AI om bewijsmateriaal te evalueren of recidive te voorspellen, met uitzondering van volledig geautomatiseerde profilering)
- Migratie en grenscontrole (bijv. leugendetectie aan de grenzen, screening van visumaanvragen)
- Rechtsbedeling (bijvoorbeeld AI die rechters bijstaat of juridische uitkomsten voorspelt)
Omdat deze AI-systemen met een hoog risico ernstige zorgen opleveren, zijn er strikte verplichtingen aan verbonden. Aanbieders moeten risico's beoordelen en beperken voordat ze dergelijke AI op de markt brengen en gedurende de hele levenscyclus ervan. Er zijn gedetailleerde vereisten voor AI met een hoog risico, waaronder het waarborgen van hoogwaardige trainingsgegevens (om vooroordelen te verminderen), het registreren van AI-activiteiten voor traceerbaarheid, het verstrekken van uitgebreide technische documentatie, het implementeren van menselijk toezicht en het bereiken van voldoende nauwkeurigheid, robuustheid en cyberbeveiliging.
AI-systemen met een hoog risico vereisen ook een conformiteitsbeoordeling (een evaluatie om te controleren of ze aan alle vereisten voldoen) voordat ze commercieel kunnen worden ingezet. Eenmaal in gebruik kunnen ze worden onderworpen aan voortdurende audits of monitoring. Belangrijk is dat mensen het recht hebben om klachten in te dienen over AI met een hoog risico bij de nationale autoriteiten als ze vermoeden dat de AI niet voldoet of schade veroorzaakt. Dit alles zorgt ervoor dat risicovolle AI streng wordt gecontroleerd om ongelukken of misbruiken te voorkomen.
Beperkt risico
AI-systemen met een beperkt risico zijn degenen die grotendeels zijn toegestaan, maar die moeten voldoen aan de transparantievereisten. Het idee is om ervoor te zorgen dat mensen weten wanneer AI wordt gebruikt in bepaalde interacties, om het vertrouwen en de keuzevrijheid te behouden. De belangrijkste verplichtingen voor AI met een beperkt risico zijn onder meer:
- De betrokkenheid van AI bekendmaken: Als een persoon interageert met een AI-systeem dat kan worden aangezien voor mensen, moet hij of zij hiervan op de hoogte worden gesteld. Chatbots of AI-assistenten moeten gebruikers bijvoorbeeld duidelijk vertellen dat ze AI zijn en geen mensen. Op deze manier kunnen gebruikers weloverwogen beslissingen nemen (bijvoorbeeld omdat ze weten dat een chat met de klantenservice geautomatiseerd is).
- Etikettering van „deepfakes” en door AI gegenereerde inhoud: Alle inhoud (afbeeldingen, video, audio of tekst) die door AI wordt gegenereerd of aanzienlijk gewijzigd, moet duidelijk als zodanig worden gemarkeerd, met name inhoud in deepfake-stijl. Als AI een realistische video van iemand maakt of een artikel schrijft, moeten kijkers/lezers erop worden gewezen dat deze door AI is gegenereerd. Deze transparantie helpt bij het bestrijden van verkeerde informatie en manipulatie.
- Generatieve AI-transparantie: Aanbieders van generatieve AI-systemen (zoals grote taalmodellen of beeldgeneratoren) moeten ervoor zorgen dat door AI geproduceerde outputs identificeerbaar zijn als door AI gemaakte output. Ze moeten ook inbouwen redelijke waarborgen om te voorkomen dat de AI illegale inhoud produceert (bijvoorbeeld door prompts die haatzaaiende uitlatingen of expliciet illegaal materiaal zouden genereren, niet toe te staan) en een samenvatting te publiceren van alle auteursrechtelijk beschermde gegevens die zijn gebruikt bij het trainen van hun modellen. Deze laatste vereiste, gekoppeld aan de auteursrechtwetgeving van de EU, houdt in dat als een AI is getraind op auteursrechtelijk beschermde werken, de aanbieder die informatie in een beknopte vorm openbaar moet maken.
Afgezien van deze op transparantie gerichte taken, is AI met een beperkt risico niet onderworpen aan het zware toezicht dat AI met een hoog risico is. Het doel is simpelweg om gebruikers op de hoogte en veilig te houden wanneer AI achter de schermen actief is. Voor organisaties betekent het voldoen aan regels met een beperkt risico vaak dat ze de juiste meldingen of labels moeten toevoegen aan hun AI-gestuurde services.
Minimaal of geen risico
De overgrote meerderheid van AI-systemen valt tegenwoordig onder de categorie met minimaal of geen risico. Dit zijn AI-toepassingen die geen significant risico vormen voor de rechten of veiligheid van gebruikers, dus de wet legt hen geen nieuwe regels op. Voorbeelden hiervan zijn AI in spamfilters, AI die e-mails automatisch categoriseert of AI-functies in videogames. Dergelijke alledaagse AI-tools kunnen nog steeds vrij worden gebruikt.
Natuurlijk moet zelfs AI met een minimaal risico nog steeds voldoen aan bestaande wetten (zoals algemene consumentenbescherming of privacywetten), maar de AI-wet zelf voegt daar geen extra verplichtingen aan toe. Organisaties moeten deze systemen nog steeds in de gaten houden voor het geval hun risiconiveau verandert (een AI-update kan bijvoorbeeld nieuwe mogelijkheden introduceren die de systemen naar een hogere risicocategorie brengen).
Bestuur en uitvoering
De implementatie van een baanbrekende wet zoals de AI-wet vereist nieuwe bestuursstructuren en richtlijnen voor bedrijven. De EU richt organen en processen op om de wet te handhaven en biedt ondersteuning om organisaties te helpen de wet na te leven.
Implementatie
De handhaving van de AI-wet zal een gezamenlijke inspanning zijn van EU-niveau en nationale autoriteiten. Een nieuw Europees AI-bureau zal handhaving en toezicht in de hele EU coördineren. Dit bureau zal samenwerken met regelgevende instanties in elke lidstaat (vaak de bestaande markttoezichtautoriteiten of digitale autoriteiten) om te controleren hoe AI-leveranciers en -gebruikers de regels volgen.
Een AI-raad van de EU en een Wetenschappelijk panel van deskundigen zal ook worden opgericht om advies te geven over AI-bestuur en technische normen. Deze organen zullen bijdragen tot een consistente toepassing van de wet in alle landen.
Het Europees Parlement heeft opgericht een speciale werkgroep voor de implementatie van de AI-wet ook. Deze groep leden van het Europees Parlement houdt in de gaten hoe de regels worden geïmplementeerd en interageert met de Commissie en het AI-bureau, om ervoor te zorgen dat de handhaving van de wet op schema blijft en daadwerkelijk innovatie in de digitale sector van Europa ondersteunt.
In de praktijk betekent dit voor organisaties dat er op nationaal en EU-niveau begeleiding en contactpunten zullen zijn voor vragen over AI-regelgeving. Nu we de volledige handhaving naderen, kunt u verwachten dat uw nationale regelgevers meer gedetailleerde instructies geven over nalevingsprocedures, conformiteitsbeoordelingen en de registratie van systemen met een hoog risico.
Ondersteuning van naleving
De EU erkent dat deze regels nieuw en complex zijn en heeft maatregelen genomen om bedrijven te helpen zich aan de regels te houden. Een van de eerste initiatieven was het AI-pact, een vrijwillig programma dat door de Europese Commissie werd gelanceerd om bedrijven aan te moedigen de belangrijkste principes van de AI-wet te gaan volgen eerder de wet treedt volledig in werking. Bedrijven die het AI-pact ondertekenen, verbinden zich vooraf tot zaken als transparantie en risicobeheer, wat hen niet alleen voorbereidt op toekomstige naleving, maar ook toezichthouders helpt om feedback te verzamelen over de uitvoering van de wet.
Medio 2025 heeft de Commissie specifieke instrumenten geïntroduceerd die gericht zijn op AI voor algemene doeleinden (GPAI), de grote AI-modellen die diensten zoals chatbots en beeldgeneratoren aandrijven. Er zijn drie opmerkelijke instrumenten geïntroduceerd:
- Richtlijnen voor GPAI-providers: Deze maken precies duidelijk welke verplichtingen op grond van de wet van toepassing zijn op aanbieders van AI-modellen voor algemene doeleinden. Ze verdelen de verantwoordelijkheden zodat zelfs kleinere bedrijven kunnen begrijpen of ze onder de regels vallen.
- Een praktijkcode voor AI: Dit is een vrijwillig een reeks beste praktijken ontwikkeld in samenwerking met de industrie en deskundigen, met betrekking tot gebieden zoals transparantie, respect voor auteursrechten en beveiliging voor AI-modellen. Aanbieders die de gedragscode volgen, kunnen gemakkelijker aan de verwachtingen van de wet voldoen (en als u uw naleving aantoont, kunt u de toezichthouders laten zien dat u te goeder trouw handelt).
- Een sjabloon voor transparantie en openbaarmaking van risico's: De wet vereist dat aanbieders van grote AI-modellen een samenvatting van de trainingsgegevens publiceren (met name met vermelding van eventuele grote datasets en gebruikte bronnen). Er is een standaardsjabloon verstrekt om dit makkelijker te maken. Met behulp van dit sjabloon kunnen bedrijven de benodigde informatie (zoals de soorten gegevens en verwerkingstechnieken die in de training worden gebruikt) op een duidelijke, consistente manier openbaar maken.
Al deze maatregelen hebben tot doel de administratieve lasten verminderen over bedrijven en zorg voor duidelijkheid. Als u bijvoorbeeld een kant-en-klaar sjabloon of richtlijn hebt, hoeft u niet te raden wat de toezichthouders verwachten — het staat voor u op een rijtje.
Van het Europees AI-bureau en de nationale autoriteiten wordt ook verwacht dat ze verdere richtlijnen en veelgestelde vragen geven en mogelijk outreach- of trainingssessies organiseren (sommige EU-landen starten mogelijk „AI-sandboxen”, zoals later beschreven, die ook dienst doen als leeromgevingen voor naleving van de regelgeving). De algemene boodschap is dat toezichthouders willen werken met bedrijven om de wet uit te voeren, niet zomaar regels voor hen te laten vallen, vooral in de beginjaren.
Nalevingscontrole
Om organisaties te helpen hun verplichtingen na te komen, hebben onafhankelijke groepen gebruiksvriendelijke hulpmiddelen ontwikkeld. Een opmerkelijk voorbeeld is de Nalevingscontrole van de EU-AI-wet, een interactieve vragenlijst en stroomschema dat online beschikbaar is. Je kunt gegevens invoeren over je AI-systeem — zoals wat het doet, wie het gebruikt en hoe het beslissingen neemt — en de tool helpt om te bepalen of het onder de wet valt en welke risicocategorie en vereisten van toepassing kunnen zijn.
Dit soort tool is vooral nuttig voor nalevingsteams in de vroege fase van de analyse. In plaats van de wetsteksten te doorzoeken, kunt u een snelle, op maat gemaakte uitlezing van de verplichtingen krijgen (u zou bijvoorbeeld kunnen zeggen dat „uw systeem een hoog risico inhoudt, dus u moet X-, Y- en Z-controles implementeren en dit bij de autoriteiten registreren”).
Het is natuurlijk geen vervanging voor juridisch advies, maar het biedt wel een nuttig stappenplan. De Compliance Checker blijft ook bijgewerkt: naarmate de wet definitief en duidelijk wordt, wordt de logica van de tool verfijnd (met wijzigingslogboeken waarin wordt vermeld dat de wet in 2024-2025 is bijgewerkt om overeen te komen met de definitieve wet).
Voor een compliance- of HR-team kan het gebruik van zo'n checker de AI-wet ontraadselen. Het is een goed startpunt om vervolgens met uw juridische adviseurs of technische teams te bespreken welke stappen u vervolgens moet nemen.
Vereisten inzake transparantie
Transparantie is een kernthema van de bestuursaanpak van de EU AI Act. Naast de op risico gebaseerde niveaus verplicht de wet expliciet transparantie voor bepaalde AI-resultaten en -interacties. We hebben enkele van deze punten besproken onder „beperkt risico”, maar laten we de belangrijkste transparantievereisten samenvatten waarop organisaties zich moeten voorbereiden:
- Openbaarmaking van inhoud die door AI is gegenereerd: Als uw organisatie inhoud (tekst, afbeeldingen, video's, audio) publiceert of gebruikt die door AI is gegenereerd of aanzienlijk gewijzigd, moet u deze duidelijk als zodanig labelen. Als je bijvoorbeeld een AI-tool gebruikt om een realistische marketingvideo te maken met door AI gegenereerde acteurs of stemmen, moet het publiek ervan op de hoogte worden gebracht dat deze door AI is gegenereerd. Dit helpt misleiding te voorkomen en bouwt vertrouwen op bij consumenten en het publiek.
- Generatieve AI-systemen (bijvoorbeeld chatbots zoals ChatGPT): Hoewel dit niet automatisch een „hoog risico” is, legt de wet hen specifieke transparantieregels op. Aanbieders moeten gebruikers laten weten dat ze interactie hebben met AI en niet met een mens, wanneer dat misschien niet voor de hand ligt. Ze moeten ook samenvattingen publiceren van auteursrechtelijk beschermde gegevens die worden gebruikt voor het trainen van hun modellen. In de praktijk betekent dit dat als een AI-model is getraind op bijvoorbeeld nieuwsartikelen of boeken, de aanbieder een samenvatting moet publiceren met een lijst van die bronnen (om te voldoen aan de EU-auteursrechtwetgeving en om kunstenaars of uitgevers te laten weten dat hun werk is gebruikt).
- Waarschuwingen voor veiligheid en misbruik: Van generatieve AI-aanbieders wordt verwacht dat ze beveiligingsmaatregelen nemen tegen het genereren van illegale inhoud. Dit is ook een vorm van transparantie — het betekent dat je transparant moet zijn over de beperkingen van het model en de stappen die zijn genomen om misbruik te voorkomen. Gebruikers moeten er bijvoorbeeld van op de hoogte worden gebracht of de AI inhoudsfilters heeft en wat ze dekken.
- Openbare database van AI met een hoog risico: Hoewel het geen „label” op de inhoud is, is het de moeite waard om als transparantiemaatregel op te merken dat de EU een database zal onderhouden waar alle AI-systemen met een hoog risico moeten vóór de implementatie worden geregistreerd. Deze database zal toegankelijk zijn voor het publiek en zal belangrijke informatie bevatten over elk systeem met een hoog risico (zoals het doel, de provider, de conformiteitsbeoordelingsstatus, enz.). Voor organisaties betekent dit dat als u een AI met een hoog risico implementeert, sommige details hierover openbaar worden gemaakt. Het is bedoeld om de verantwoording te bevorderen en toezicht door het maatschappelijk middenveld en de betrokken personen mogelijk te maken.
Samengevat zorgen transparantievereisten ervoor dat AI niet op een stiekeme of onverklaarbare manier werkt. Nalevingsteams moeten daarom plannen om op gepaste momenten duidelijke informatie op te nemen, of het nu gaat om een bericht op een website („Deze chatbot wordt aangedreven door AI”), watermerken of bijschriften op door AI gegenereerde media, of om documentatie die op uw website wordt gepubliceerd over uw AI-systemen en trainingsgegevens.
Tijdschema voor naleving van de EU-AI-wet
Tijdlijn van de toepassing
De AI-wet van de EU was officieel goedgekeurd medio 2024, en de bepalingen ervan worden volgens een gespreid schema ingevoerd om organisaties de tijd te geven zich aan te passen. Hier is het tijdschema voor wanneer verschillende delen van de wet van kracht worden:
- augustus 2024: De wet is in werking getreden (werd wet). Hiermee werd de klok gestart volgens de implementatietijdlijnen.
- 2 februari 2025: De eerste belangrijke bepalingen zijn zes maanden na de inwerkingtreding van toepassing geworden. Dit omvat het verbod op AI-systemen met een onaanvaardbaar risico, dat vanaf deze datum wettelijk afdwingbaar werd. Vanaf deze datum zijn ook nieuwe verplichtingen op het gebied van AI-geletterdheid (maatregelen om te onderwijzen of te informeren over AI, waarschijnlijk gericht op de publieke sector en leveranciers) van toepassing geworden.
- Mei 2025 (ongeveer): Ongeveer negen maanden later moedigt de EU de invoering van praktijkcodes aan. (In de context zouden dit branchecodes of vrijwillige richtlijnen zijn die zijn ontwikkeld om in overeenstemming te zijn met de wet. De wet zelf merkt op dat sommige gedragscodes binnen 9 maanden gereed moeten zijn als leidraad voor de uitvoering.)
- 2 augustus 2025: Regels voor AI voor algemene doeleinden (GPAI) — met name transparantieverplichtingen inzake generatieve AI — worden 12 maanden na de inwerkingtreding van toepassing. Vanaf dat moment moeten aanbieders van grote AI-modellen voldoen aan deze specifieke vereisten (zoals de transparantie en veiligheidsmaatregelen van trainingsgegevens).
- 2 augustus 2026: Het grootste deel van de vereisten van de AI-wet wordt 24 maanden na de inwerkingtreding van kracht. Dit is de datum waarop de meeste aanbieders en gebruikers van AI volledig moeten voldoen aan de eisen van de systemen die onder het toepassingsgebied vallen. Zie dit als de algemene deadline voor „AI Act is nu live”.
- 2 augustus 2027: Bepaalde AI-systemen met een hoog risico die in producten zijn ingebed, krijgen een verlengde tijdlijn van 36 maanden, waardoor hun nalevingstermijn wordt verlengd tot 2027. Dit extra jaar (na de datum van 2026) erkent dat sectoren zoals medische apparatuur of de automobielsector mogelijk meer tijd nodig hebben om complexe AI-systemen te updaten die al in ontwikkeling of in gebruik zijn. Tegen die datum moet echter alle AI met een hoog risico hieraan voldoen. Het Europees Parlement merkte specifiek op dat systemen met een hoog risico meer tijd hebben om zich aan te passen, maar niet later dan 36 maanden na de inwerkingtreding van de wet.
Het is belangrijk om deze data in de gaten te houden. Wat de nalevingsplanning betreft, beginnen in 2025 de eerste verplichtingen (zoals het stoppen met verboden AI-praktijken en het voldoen aan de transparantieverplichtingen voor generatieve AI).
2026 is de belangrijkste voor de meeste verplichtingen, en 2027 is de laatste grens voor de resterende risicovolle gebruiksgevallen. De gespreide aanpak is bedoeld om de overgang soepeler te laten verlopen — toezichthouders zullen tijdens deze fasen waarschijnlijk meer richtlijnen geven. Zorg ervoor dat uw organisatie alle aankondigingen of updates van EU-autoriteiten volgt naarmate deze mijlpalen dichterbij komen.
AI-innovatie en start-ups in Europa aanmoedigen
Een belangrijk doel van de AI-wet is om een evenwicht te vinden tussen regelgeving en innovatie. De EU wil AI-ontwikkelaars ondersteunen, met name start-ups en kleine bedrijven, zodat naleving geen toetredingsdrempel vormt. De wet maakt zelfs tientallen keren expliciet melding van kleine en middelgrote ondernemingen (KMO's) en bevat bepalingen om hen te helpen.
Gids voor kleine bedrijven
Voor start-ups en kleine en middelgrote ondernemingen de AI-wet van de EU bevat maatregelen op maat om de naleving te vergemakkelijken en innovatie te bevorderen:
- Sandboxen voor regelgeving op het gebied van AI: Elke EU-lidstaat zal er minstens één oprichten AI-sandbox — een testomgeving waar bedrijven onder toezicht van toezichthouders AI-systemen kunnen ontwikkelen en ermee kunnen experimenteren. Binnen deze sandboxen worden de normale wettelijke vereisten versoepeld of tijdelijk opgeheven. Kleine en middelgrote ondernemingen krijgen met voorrang toegang tot sandboxen, die gratis zullen worden voorzien van eenvoudige, gestroomlijnde procedures. Dit stelt start-ups in staat om AI-oplossingen in reële omstandigheden te testen zonder onmiddellijk bang te hoeven zijn voor sancties, terwijl ze ook leren hoe ze aan de vereisten van de wet kunnen voldoen. Alle nalevingsdocumentatie die tijdens sandbox-experimenten wordt geproduceerd, kan later worden gebruikt om toezichthouders aan te tonen dat de AI aan de regels voldoet.
- Lagere nalevingskosten en -vergoedingen: De wet schrijft voor dat conformiteitsbeoordelingen en andere wettelijke vergoedingen in verhouding staan tot de grootte van het bedrijf. Regelgevers zullen de nalevingskosten voor kleinere aanbieders regelmatig evalueren en eraan werken om deze te verlagen. Kortom, een KMO zou niet met dezelfde nalevingswet moeten worden geconfronteerd als een techgigant. Dit omvat mogelijk lagere certificeringskosten en vereenvoudigde processen om de financiële lasten voor start-ups te verminderen.
- Vereenvoudigde documentatie en training: Erkennend dat kleine bedrijven over beperkte middelen beschikken, zal de Europese Commissie vereenvoudigde sjablonen voor technische documentatie voor kleine en middelgrote ondernemingen ontwikkelen. Deze sjablonen zullen door de autoriteiten worden aanvaard om aan te tonen dat ze aan de voorschriften voldoen, zodat kleine en middelgrote ondernemingen niet vanaf het begin complexe documenten hoeven op te stellen. Daarnaast zullen opleidingsprogramma's worden aangeboden die zijn afgestemd op het MKB om hen te helpen de verplichtingen van de AI-wet te begrijpen en na te komen. Dit kunnen online tutorials, workshops of helpdeskondersteuning zijn.
- Toegewijde ondersteuning en communicatie: KMO's zullen toegang hebben tot speciale kanalen voor begeleiding over de AI-wet. Het idee is dat een klein bedrijf snel antwoord moet kunnen krijgen over hoe de wet op hen van toepassing is. Of het nu via een officiële helpdesk of een contactpunt van het AI Office is, er is altijd iemand die kan helpen met compliancevragen die uniek zijn voor kleinere spelers.
- KMO's betrekken bij de regelgeving: De EU is ook inhet betrekken van kleine en middelgrote ondernemingen bij het lopende beheer van AI-regelgeving. KMO's en start-ups zullen worden uitgenodigd om deel te nemen aan inspanningen op het gebied van normalisatie en de adviesfora van de wet. Dit zorgt ervoor dat normen (bijvoorbeeld technische normen voor AI-veiligheid of transparantie) rekening houden met het perspectief van kleinere actoren en niet al te veel de voorkeur geven aan grote bedrijven. Op grond van de wet AI-adviescommissie, zullen er waarschijnlijk zetels of overlegmogelijkheden zijn voor vertegenwoordigers van het MKB.
- Proportionele verplichtingen voor AI-aanbieders voor algemene doeleinden: Als een KMO een AI-model voor algemene doeleinden aanbiedt, zegt de wet dat de verplichtingen moeten worden aangepast aan hun capaciteit. De vrijwillige gedragscode voor AI bevat bijvoorbeeld afzonderlijke Key Performance Indicators (KPI's) die zijn afgestemd op MKB-aanbieders, waarbij wordt erkend dat van een start-up van twee personen niet kan worden verwacht dat deze aan dezelfde benchmarks voldoet als een multinational. Dit evenredigheidsbeginsel is bedoeld om te voorkomen dat de wet kleine vernieuwers verstikt.
Over het algemeen stelt de AI-wet van de EU niet alleen regels vast en laat het MKB aan hun lot over, maar moedigt ze ook actief innovatie aan door een veiligere ruimte voor experimenten te creëren en door de belemmeringen voor naleving te verlagen.
Als je een startende oprichter bent of deel uitmaakt van een klein technologiebedrijf, moet je gebruik maken van deze ondersteuning: sluit je indien mogelijk aan bij een sandbox met regelgeving, gebruik de vereenvoudigde sjablonen en neem deel aan de aangeboden trainingen en forums. Dit helpt niet alleen om ervoor te zorgen dat u aan de wet voldoet, maar het kan ook uw AI-product verbeteren (door feedback van toezichthouders en vroegtijdige risicobeperking) en het vertrouwen vergroten bij investeerders en klanten (die ervoor zullen zorgen dat uw AI op verantwoorde wijze wordt ontwikkeld binnen het EU-kader).
Door de vereisten en het tijdschema van de EU-AI-wet te begrijpen, kunnen nalevings-, juridische en HR-teams zich nu voorbereiden. Of het nu gaat om het controleren van uw huidige AI-tools, het updaten van uw beleid of het opleiden van uw personeel, proactieve stappen zullen u een voorsprong geven.
De wet is zeker gedetailleerd, maar de kernboodschap is eenvoudig: AI in Europa moet wettig, ethisch en transparant van opzet zijn.
Nu de middelen en richtlijnen beschikbaar zijn, kunnen organisaties van elke omvang hun AI-praktijken afstemmen op deze waarden, waardoor niet alleen de wettelijke naleving wordt gegarandeerd, maar ook betrouwbaardere AI-resultaten voor alle betrokkenen.
Bronnen
De informatie in dit artikel is gebaseerd op de tekst van de EU-AI-wet en officiële samenvattingen, waaronder de publicatie van de Europese Commissie en het Europees Parlement, evenals analyses van de nalevingsbronnen van de EU-AI-wet. Deze bronnen bieden meer informatie en kunnen worden geraadpleegd voor een diepere duik in specifieke bepalingen.
