In vrijwel iedere organisatie wordt AI reeds in meerdere of mindere mate ingezet. Het kan gaan om chatbots voor klanten, AI tools voor recruiters, werknemers die zich laten assisteren door ChatGPT, CoPilot of misschien wel Deepseek. Super behulpzaam, maar wel degelijk risicovol. De ervaring leert dat ook in de meest geavanceerde systemen hallucinatie op de loer blijft liggen. Dat betekent dus dat AI-tools geneigd zijn om iets aan de hand van statistiek ‘in te vullen’ op basis van de informatie waarop het AI-systeem acteert, maar wat niet waar hoeft te zijn. Zelfs als de informatie waarmee de AI tool wordt gevoed geavanceerd is kan het misgaan. Het is essentieel dat medewerkers zich er bewust van zijn dat een Large Language Model geen zoekmachine is.
De meeste verplichtingen uit de AI Act zijn nog niet van kracht. Zo gelden de eisen voor hoog risico modellen pas vanaf augustus 2026. Sinds 2 februari dient iedere organisatie die gebruik maakt van AI (iedere aanbieder en gebruiksverantwoordelijke) echter wel te zorgen voor voldoende kennis van AI bij hun personeel. Of zoals de AI Act het zegt: maatregelen te nemen om “zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken.”
In de AI Act wordt AI-geletterdheid ook gedefinieerd: “vaardigheden, kennis en begrip die aanbieders, gebruiksverantwoordelijken en betrokken personen, rekening houdend met hun respectieve rechten en plichten in het kader van deze verordening, in staat stellen geïnformeerd AI-systemen in te zetten en zich bewuster te worden van de kansen en risico’s van AI en de mogelijke schade die zij kan veroorzaken.”
Het is natuurlijk bepaald niet duidelijk wanneer een organisatie “zoveel als mogelijk zorgt voor een toereikend niveau”.
Om te voldoen aan de nieuwe verplichtingen voor AI-geletterdheid per 2 februari 2025, adviseert de Autoriteit Persoonsgegevens (AP) organisaties om een meerjarig actieplan op te stellen. Dit plan helpt om structureel kennis op te bouwen binnen de organisatie en om AI-systemen verantwoord en juridisch compliant in te zetten.
De 4 stappen van het plan worden hieronder samengevat weergegeven (met dank aan AI). Duidelijk is dat het weer een behoorlijke compliance kluif is om al deze stappen volledig in te voeren. Het zal ook per organisatie verschillen hoe uitgebreid een dergelijk project moet zijn.
Als stap 1 is het in ieder geval van belang om een 0-meting te doen en te zorgen voor bewustwording van de risico’s van het gebruik van AI bij werknemers.
Wij kunnen u vanzelfsprekend helpen bij het op juiste wijze invulling geven aan deze eisen. Ook kunnen we trainingen verzorgen met verschillende niveaus van diepgang om de AI-geletterdheid binnen uw organisatie aan de eisen van de AI Act te laten voldoen. Neem contact op met ons team voor de mogelijkheden.
🔹 De 4 Stappen van het Actieplan
1 Identificeren 🔍
- Breng alle AI-systemen binnen de organisatie in kaart
- Registreer de bijbehorende risico’s en effecten op mens en maatschappij
- Voer een nulmeting uit van het kennisniveau van medewerkers
- Documenteer bestaande beleidsstukken en richtlijnen
2️ Doel Bepalen 🎯
- Stel specifieke doelen vast op basis van risico’s per AI-systeem
- Bepaal welk kennisniveau vereist is voor verschillende rollen binnen de organisatie
- Prioriteer maatregelen voor de grootste risico’s
- Wijs verantwoordelijkheden toe voor de uitvoering
3️ Uitvoeren 🚀
- Ontwikkel en implementeer trainingen en awareness-programma’s
- Neem AI-geletterdheid op in governance en compliance-structuren
- Stel een transparant beleid op over AI-gebruik binnen de organisatie
- Benoem een AI-officer om toezicht te houden op de naleving
4️ Evalueren & Verbeteren 📊
- Monitor regelmatig of de doelen worden behaald
- Voer audits en enquêtes uit onder medewerkers
- Evalueer en verbeter het actieplan op basis van technologische en juridische ontwikkelingen
- Leg de voortgang vast in managementrapportages
In vrijwel iedere organisatie wordt AI reeds in meerdere of mindere mate ingezet. Het kan gaan om chatbots voor klanten, AI tools voor recruiters, werknemers die zich laten assisteren door ChatGPT, CoPilot of misschien wel Deepseek. Super behulpzaam, maar wel degelijk risicovol. De ervaring leert dat ook in de meest geavanceerde systemen hallucinatie op de loer blijft liggen. Dat betekent dus dat AI-tools geneigd zijn om iets aan de hand van statistiek ‘in te vullen’ op basis van de informatie waarop het AI-systeem acteert, maar wat niet waar hoeft te zijn. Zelfs als de informatie waarmee de AI tool wordt gevoed geavanceerd is kan het misgaan. Het is essentieel dat medewerkers zich er bewust van zijn dat een Large Language Model geen zoekmachine is.
De meeste verplichtingen uit de AI Act zijn nog niet van kracht. Zo gelden de eisen voor hoog risico modellen pas vanaf augustus 2026. Sinds 2 februari dient iedere organisatie die gebruik maakt van AI (iedere aanbieder en gebruiksverantwoordelijke) echter wel te zorgen voor voldoende kennis van AI bij hun personeel. Of zoals de AI Act het zegt: maatregelen te nemen om “zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken.”
In de AI Act wordt AI-geletterdheid ook gedefinieerd: “vaardigheden, kennis en begrip die aanbieders, gebruiksverantwoordelijken en betrokken personen, rekening houdend met hun respectieve rechten en plichten in het kader van deze verordening, in staat stellen geïnformeerd AI-systemen in te zetten en zich bewuster te worden van de kansen en risico’s van AI en de mogelijke schade die zij kan veroorzaken.”
Het is natuurlijk bepaald niet duidelijk wanneer een organisatie “zoveel als mogelijk zorgt voor een toereikend niveau”.
Om te voldoen aan de nieuwe verplichtingen voor AI-geletterdheid per 2 februari 2025, adviseert de Autoriteit Persoonsgegevens (AP) organisaties om een meerjarig actieplan op te stellen. Dit plan helpt om structureel kennis op te bouwen binnen de organisatie en om AI-systemen verantwoord en juridisch compliant in te zetten.
De 4 stappen van het plan worden hieronder samengevat weergegeven (met dank aan AI). Duidelijk is dat het weer een behoorlijke compliance kluif is om al deze stappen volledig in te voeren. Het zal ook per organisatie verschillen hoe uitgebreid een dergelijk project moet zijn.
Als stap 1 is het in ieder geval van belang om een 0-meting te doen en te zorgen voor bewustwording van de risico’s van het gebruik van AI bij werknemers.
Wij kunnen u vanzelfsprekend helpen bij het op juiste wijze invulling geven aan deze eisen. Ook kunnen we trainingen verzorgen met verschillende niveaus van diepgang om de AI-geletterdheid binnen uw organisatie aan de eisen van de AI Act te laten voldoen. Neem contact op met ons team voor de mogelijkheden.
🔹 De 4 Stappen van het Actieplan
1 Identificeren 🔍
- Breng alle AI-systemen binnen de organisatie in kaart
- Registreer de bijbehorende risico’s en effecten op mens en maatschappij
- Voer een nulmeting uit van het kennisniveau van medewerkers
- Documenteer bestaande beleidsstukken en richtlijnen
2️ Doel Bepalen 🎯
- Stel specifieke doelen vast op basis van risico’s per AI-systeem
- Bepaal welk kennisniveau vereist is voor verschillende rollen binnen de organisatie
- Prioriteer maatregelen voor de grootste risico’s
- Wijs verantwoordelijkheden toe voor de uitvoering
3️ Uitvoeren 🚀
- Ontwikkel en implementeer trainingen en awareness-programma’s
- Neem AI-geletterdheid op in governance en compliance-structuren
- Stel een transparant beleid op over AI-gebruik binnen de organisatie
- Benoem een AI-officer om toezicht te houden op de naleving
4️ Evalueren & Verbeteren 📊
- Monitor regelmatig of de doelen worden behaald
- Voer audits en enquêtes uit onder medewerkers
- Evalueer en verbeter het actieplan op basis van technologische en juridische ontwikkelingen
- Leg de voortgang vast in managementrapportages