(Opinie) Leo Van Dorsselaer: AI-richtlijnen, noodzaak of doekje voor het bloeden?
Organisaties werken vandaag koortsachtig aan richtlijnen voor het gebruik van artificiële intelligentie. AI-ethiek, governance-modellen en gedragscodes — het lijstje groeit met de week. Op papier klopt het allemaal. In de praktijk blijft één vraag knagen: wat verandert dit werkelijk aan het gedrag van de gebruiker?
Richtlijnen zijn geen gedragsverandering
Er is niets mis met duidelijke AI-regels. Ze bieden houvast, juridische zekerheid en een gemeenschappelijk kader. Maar steeds vaker zie ik organisaties verzanden in overleg, werkgroepen en consultancytrajecten, terwijl de kern onaangeroerd blijft. Regels werken alleen als ze niet alleen worden nageleefd, maar ook ‘geleefd’.
De gebruiker blijft de zwakste schakel
Geen enkel protocol kan voorkomen dat AI verkeerd wordt ingezet wanneer gezond verstand ontbreekt. Recente incidenten in academische en professionele contexten tonen dat pijnlijk aan. Zelfs met sluitende AI-richtlijnen kan alles mislopen zodra de gebruiker zijn kritisch denkvermogen uitschakelt. Honderd extra regels maken dat niet anders.
AI-ethiek zonder bewustwording blijft symboliek
AI governance, ethische codes en gedragsregels zijn noodzakelijk. Maar zonder opleiding, een mogelijke afdwingbaarheid en dagelijkse toepassing blijven ze vooral geruststellende documenten. Sommigen pleiten voor beperkte of selectieve toegang tot AI-tools. Dat lijkt logisch, maar lost weinig op. Wie misbruik wil maken, vindt meestal een andere weg. Wie fouten maakt, doet dat vaak uit onwetendheid, niet uit kwade wil.
De Europese AI Act: kader, geen wondermiddel
Met de Europese AI Act, die op 2 augustus 2024 in werking trad, is er eindelijk één samenhangend regelgevend kader. De gefaseerde invoering geeft organisaties de tijd om zich voor te bereiden. Maar voorbereiding mag geen papieroefening worden.
Zonder aandacht voor gebruikersbewustwording dreigt compliance los te komen van de realiteit. Bewustwording is geen soft factor.
Risico’s zoals desinformatie, manipulatie en maatschappelijke schade worden niet opgelost door regels alleen. Ze worden beperkt door mensen die begrijpen wat AI kan — en vooral wat het niet kan.
Technologie mag dan complex zijn, verantwoordelijkheid blijft menselijk.
AI-richtlijnen zijn nodig. Maar zonder investering in kritisch denken, opleiding en afdwingbare kaders — met het besef dat niet elk menselijk handelen te reguleren valt — blijven ze vooral een doekje voor het bloeden. De echte uitdaging ligt niet in het schrijven van nog een gedragscode, maar in het verankeren van verantwoord AI-gebruik in het dagelijks handelen.
Dit opiniestuk is geschreven door Leo Van Dorsselaer.
Lees ook
WE MEDIA wil haar leden door de gemeenschappelijke uitdagingen loodsen
Een nieuw jaar, een nieuw begin. WE MEDIA start 2025 met een nieuwe Raad van Bestuur, die de missie van de vakvereniging op scherp gesteld heeft. Voorzitter Andy Noyez (PMG) licht een eerste tipje van de sluier.
Publicis Groupe België versterkt zich met Tim Vanacker als Head of Comms Planning
Publicis Groupe België benoemt Tim Vanacker tot Head of Comms Planning. Met zijn achtergrond in mediastrategie, leadership en geïntegreerde communicatie versterkt hij het media planning team en de strategische slagkracht van het bureau.
Lees later
U moet geregistreerd zijn om dit artikel aan uw leeslijst toe te voegen
Inschrijven Al geregistreerd? Inloggen
