De AI Act: Waarom het gebruik van jouw AI software over 8 maanden illegaal kan zijn

Voor de snelle lezer
Het is eind december 2025 en de klok tikt: op 2 augustus 2026 worden de regels voor 'High-Risk' AI uit de EU AI Act volledig gehandhaafd. Veel directeuren denken onterecht dat dit alleen voor tech-reuzen geldt, maar gebruik je software voor HR, werving of kredietchecks? Dan sta ook jij in de vuurlinie.
In dit blog lees je precies wat de AI Act inhoudt, waarom jouw standaard kantoorsoftware mogelijk als 'risicovol' wordt bestempeld en welke 4 concrete stappen je nu moet zetten om boetes en operationele stilstand te voorkomen.
De AI Act: Waarom het gebruik van jouw AI software over 8 maanden illegaal kan zijn
Het is eind december 2025. Terwijl de champagne koud staat en de jaarplannen worden afgerond, is er één datum die in 2026 rood omcirkeld in je agenda moet staan: 2 augustus 2026. In gesprekken met directies merken we vaak verwarring. "Die AI-wet geldt toch alleen voor tech-reuzen?" of "Wij gebruiken alleen ChatGPT. Geldt de AI Act dan ook voor ons?". Helaas is dat een misverstand dat je bedrijf duur kan komen te staan. De EU AI Act gaat niet over wie je bent, maar over wat je doet met AI.
Bij PromptGorillas zien we AI als een serieuze hefboom voor bedrijfsgroei. Maar die hefboom werkt alleen als hij juridisch verankerd is.
Als directeur wil je concreet antwoord op de vraag: Wat is de AI Act en wat moet ik nu regelen om geen problemen of boetes te krijgen? Hieronder vind je een praktische AI Act samenvatting en de stappen die je vóór augustus 2026 moet zetten.
AI Training
Bij PromptGorillas jagen we geen updates na, maar bouwen we aan AI-zekerheid.
Met onze ChatGPT-training transformeren we jouw team in één dagdeel van passieve gebruikers naar strategische piloten.
We gaan voorbij de standaard trucjes: we oefenen direct met jullie eigen bedrijfscases. Zo leren deelnemers denken in prompts, bouwen ze hun eigen Custom GPT en borgen ze veiligheid volgens de AI Act.
Zo zorg je dat de technologie voor jóu werkt, ongeacht welk model er morgen gelanceerd wordt.
Wat is de AI Act?
Voordat we naar de deadlines kijken, eerst de basis. De EU AI Act is 's werelds eerste uitgebreide wetgeving die het gebruik van kunstmatige intelligentie reguleert. De wet is ontstaan vanuit de behoefte om burgers te beschermen tegen de risico's van AI, zoals discriminatie en privacyschending, zonder innovatie te smoren.
De kern van de wet is een "risico-gebaseerde aanpak". Dit betekent: hoe groter de potentiële impact van een AI-systeem op de rechten en veiligheid van mensen, hoe strenger de regels. Simpel gezegd wil Europa dat AI betrouwbaar en "mensgericht" is. Voor software die slechts spam filtert (laag risico) gelden nauwelijks regels, maar voor software die bepaalt of iemand wordt aangenomen (hoog risico), ligt de lat hoog.
Tijdlijn EU AI Act: Wat is er al van kracht?
De wet wordt gefaseerd ingevoerd. Het is cruciaal om te weten dat sommige delen al actief zijn.
- Februari 2025 (Al verstreken): De absolute verboden. Er zijn AI-toepassingen die in Europa simpelweg niet meer mogen. Denk aan 'social scoring' of AI die op de werkvloer emoties van werknemers analyseert om te zien of ze wel 'blij' of 'productief' genoeg kijken. Gebruik je nog software die dit doet? Dan ben je nu al in overtreding. Stop daar direct mee.
- Augustus 2025 (Al verstreken): Regels voor General Purpose AI. Dit gaat over de bouwers van grote modellen (zoals OpenAI en Google). Zij moeten transparant zijn over hun data en risico's. Voor jou als gebruiker is dit fijn: het betekent dat de tools die je inkoopt veiliger worden.
- Augustus 2026 (De Grote Klap): High-Risk AI. Dit is de deadline waar iedereen zenuwachtig van wordt. Vanaf deze datum moeten alle AI-systemen die als "Hoog Risico" worden bestempeld, voldoen aan strenge eisen. De kans is aanwezig dat jij die in huis hebt.
Wanneer is software 'High-Risk' volgens de AI Act?
Veel ondernemers denken bij 'hoog risico' alleen aan medische apparatuur of zelfrijdende auto's. Maar de wetgever kijkt anders. In Annex III van de AI Act staan processen die impact hebben op de levenskansen van mensen. Scan je organisatie eens op de volgende drie categorieën. Als je hier AI (of software met AI-functies) gebruikt, val je onder de zware regels:
A. Personeelszaken & Recruitment (De grootste valkuil)
Gebruik je software om CV’s te scannen? Laat je met een tool de eerste selectie maken van kandidaten? Of (en dit wordt vaak vergeten) gebruik je AI om taken toe te wijzen of prestaties te beoordelen van je huidige medewerkers? Een systeem dat automatisch tickets toewijst aan de klantenservicemedewerker die het snelste werkt, valt onder 'Workers Management' en is High-Risk.
B. Toegang tot diensten & Financiën
Bepaal je met een algoritme of een klant een lening, verzekering of abonnement mag afsluiten (kredietwaardigheid)? Of gebruik je AI om te bepalen wie voorrang krijgt bij hulpdiensten of essentiële services? Ook dit is High-Risk.
C. Opleiding & Training
Gebruik je AI om te toetsen of iemand geslaagd is voor een interne opleiding, of om te bepalen welk scholingstraject iemand moet volgen? Als dit invloed heeft op hun carrièrekansen, is het High-Risk.Let op: Je bent als bedrijf (de 'Deployer') verantwoordelijk voor hoe je de software inzet, ook als je de software gewoon hebt ingekocht bij een leverancier. Jij bepaalt namelijk het doel.
4 verplichte stappen vóór augustus 2026
Stel, je gebruikt een slimme HR-tool of klantenservice-software. Je wilt die blijven gebruiken. Wat moet je dan op orde hebben? Dit zijn de vier verplichtingen uit de AI Act waar je niet omheen kunt.
Stap 1: De FRIA (Jouw 'Rijbewijs' voor gebruik)
Dit is een nieuwe term die je moet kennen: de Fundamental Rights Impact Assessment (FRIA).
Voordat je een High-Risk systeem aanzet, moet je op papier zetten wat de impact is op mensenrechten.
- Discrimineert de tool vrouwen of minderheden?
- Is de privacy gewaarborgd?
- Wat gebeurt er als de AI een fout maakt?
Dit is geen eenmalig formuliertje, maar een document dat je moet bijhouden. Zonder FRIA mag de stekker er in augustus 2026 niet in.
Stap 2: Menselijk Toezicht (Human-in-the-loop)
De wet eist dat er altijd een mens is die de AI controleert en kan ingrijpen.
- Wat je moet doen: Zorg dat je processen zo zijn ingericht dat de AI een advies geeft, maar een mens de beslissing neemt.
- Onze visie: Bij PromptGorillas bouwen we dit standaard in. Wij geloven niet in 'Black Box' systemen. Een AI-agent bereidt het werk voor, jouw medewerker geeft de 'Go'. Daarmee voldoe je vaak direct aan deze eis én houd je de kwaliteit hoog.
Stap 3: Transparantie naar je mensen
Je mag AI niet stiekem gebruiken.
- Wat je moet doen: Werknemers en sollicitanten moeten weten dat er AI wordt gebruikt en hoe die beslissingen tot stand komen.
- Deepfakes & Chatbots: Gebruik je chatbots voor klantcontact? Dan moet het voor de klant direct duidelijk zijn dat ze met een computer praten, niet met een mens.
Stap 4: Kwaliteit van Data & Logging
Als je AI traint of gebruikt, moet je kunnen aantonen dat de data 'schoon' en representatief is om discriminatie te voorkomen. Daarnaast moet het systeem automatisch 'logs' bijhouden. Als er volgend jaar een klacht komt, moet jij via de logs kunnen terugzoeken waarom de AI destijds die beslissing nam.
Wat als ik de AI Act negeer? (Boetes en Risico's)
De boetes zijn niet mals. Voor overtredingen met High-Risk systemen kun je een boete krijgen tot €15 miljoen of 3% van je wereldwijde omzet. Voor verboden praktijken loopt dit zelfs op tot €35 miljoen of 7%.
Maar laten we eerlijk zijn: voor de meeste MKB-bedrijven is de boete niet het grootste risico. Het echte gevaar is bedrijfscontinuïteit. Stel je voor dat de toezichthouder in september 2026 eist dat je jouw belangrijkste HR-software of credit-check systeem per direct uitzet omdat je geen FRIA hebt gedaan. Dan staat je operatie stil. Dat kost vaak meer dan de boete.
Conclusie: Geen paniek, wel actie
Het klinkt als een berg werk, maar dat valt mee als je nu begint. De AI Act is er niet om je te pesten, maar om kwaliteit te garanderen. Een veilig bedrijf is uiteindelijk meer waard.
Ons advies voor de komende maand:
- Inventariseer: Breng in kaart welke AI-tools er nu (stiekem) in je bedrijf draaien.
- Check: Leg ze langs de meetlat van Annex III (Is het High Risk?).
- Plan: Heb je High Risk tools? Start dan in Q1 2026 met het opstellen van je FRIA en het inrichten van menselijk toezicht.
- Train je mensen (Verplichte AI-geletterdheid): Naast de techniek zijn je mensen cruciaal. De AI Act eist letterlijk dat bedrijven zorgen voor voldoende "AI-geletterdheid" bij hun personeel. Een dichtgetimmerd AI-beleid werkt alleen als je team snapt waarom het er is en hoe ze veilig met de tools werken.
Dit is precies waar wij het verschil maken. In onze trainingen leren we jouw team niet alleen hoe ze tijd besparen met slimme prompts, maar ook hoe ze veilig en volgens de regels werken. Zo verander je 'compliance' van een moetje in een concurrentievoordeel: een team dat AI snapt, durft het sneller én veiliger toe te passen.
Disclaimer: Deze blog biedt strategisch advies voor managers en directeuren en vormt geen juridisch bindend oordeel. Raadpleeg voor specifieke juridische kwesties altijd een specialist.
Deze blog is geschreven met ondersteuning van AI-tools, conform de AI Act (EU 2025).

Benieuwd hoe we jouw team in één sessie meenemen in veilig en slim AI-gebruik?
Bekijk dan eens onze Incompany trainingen.