Nieuwe richtlijnen voor AI-modellen met ‘systemisch risico’ in Europa

ChatGPT Image 20 aug 2025 17 23 26 - Nieuwe richtlijnen voor AI-modellen met 'systemisch risico' in Europa - Brixxs - AI platform specialistsSinds kort gelden in Europa specifieke richtlijnen voor generatieve AI-modellen om bedrijven als OpenAI, Google en Microsoft te helpen aan de AI-verordening te voldoen. Deze verordening is vanaf 2 augustus van kracht en zal een grote invloed hebben op het AI-landschap in Europa.

 

AI-verordening

De nieuwe richtlijnen omvatten verschillende begrippen die belangrijk zijn in de AI Act of AI-verordening. Daartoe behoren ook regels voor AI-modellen gebaseerd op een cumulatieve compute van 10²⁵FLOP die volgens de Europese Unie een systemisch risico inhouden. Onder die noemer vallen alle AI-modellen waarbij minstens een derde van deze specifieke trainingscompute gebruikt wordt.

De nieuwe transparantie- en beveiligingsmaatregelen moeten bedrijven en overheden helpen om de risico’s voor de volksgezondheid, publieke veiligheid en de fundamentele rechten te beperken.

 

Toezichthouder

De Europese Unie stelt dat AI-modellen met een groter risico technische documentatie moeten bijhouden en delen met de AI Office, de Europese toezichthoudende institutie voor artificiële intelligentie. De producenten van deze taalmodellen zijn daarbij verplicht trainingsgegevens kenbaar te maken en moeten voldoen aan het auteursrecht. Dergelijke informatie moet trouwens beschikbaar zijn voor alle derden die de AI-applicaties in kwestie gebruiken.

Toekomstbeeld

De nieuwe beperkingen voor AI-modellen gaan in vanaf 2 augustus 2025, wat inhoudt dat aanbieders hun applicatie tegen dan moeten melden bij de Europese Unie en de risico’s in kaart brengen. 

In augustus 2026 zal de Europese Unie de nieuwe regels invoeren, specifiek voor modellen die vanaf augustus 2025 op de markt komen. Nog een jaar later, in 2027, zullen de nieuwe regels met terugwerkende kracht in werking treden voor alle AI-modellen die aan de wet voldoen. 

Ook nu al zijn de mogelijkheden van AI beperkt. Zo is het bijvoorbeeld sinds februari 2025 niet meer toegelaten om AI-applicaties te gebruiken voor het beïnvloeden van menselijk gedrag of het voorspellen van misdaden.

Gerelateerde Artikelen

AI-tools beïnvloeden vooral de individuele productiviteit

ChatGPT, Copilot en talloze andere AI-tools winnen snel terrein en hoewel ze veel mogelijkheden bieden, stellen steeds meer experts zich vragen bij het nut ervan in een bedrijfscontext.  Het grootste risico is wellicht dat ondernemingen de technologie gebruiken zonder...

read more

Heb je een vraag?

Stuur een bericht of bel +31(0) 85-0187707