|

(Opinion) Leo Van Dorsselaer : les directives sur l’IA, une nécessité ou un palliatif ?

(Opinion) Leo Van Dorsselaer : les directives sur l’IA, une nécessité ou un palliatif ?

Aujourd’hui, les organisations travaillent d’arrache-pied à l’élaboration de directives relatives à l’utilisation de l’intelligence artificielle. Éthique de l’IA, modèles de gouvernance et codes de conduite : la liste s’allonge de semaine en semaine. Sur le papier, tout cela semble parfait. Dans la pratique, une question reste en suspens : en quoi cela change-t-il réellement le comportement de l’utilisateur ?

Les directives ne changent pas les comportements

Il n’y a rien de mal à établir des règles claires en matière d’IA. Elles offrent un cadre, une sécurité juridique et une base commune. Mais je vois de plus en plus souvent des organisations s’enliser dans des consultations, des groupes de travail et des processus de consultation, sans toucher au cœur du problème. Les règles ne fonctionnent que si elles sont non seulement respectées, mais aussi « vécues ».

L’utilisateur reste le maillon faible

Aucun protocole ne peut empêcher une mauvaise utilisation de l’IA en l’absence de bon sens. Des incidents récents dans des contextes universitaires et professionnels le démontrent de manière douloureuse. Même avec des directives AI strictes, tout peut mal tourner dès que l’utilisateur désactive son esprit critique. Une centaine de règles supplémentaires n’y changeront rien.

L’éthique AI sans prise de conscience reste symbolique

La gouvernance de l’IA, les codes éthiques et les règles de conduite sont nécessaires. Mais sans formation, sans possibilité de les rendre contraignants et sans application quotidienne, ils restent avant tout des documents rassurants. Certains plaident en faveur d’un accès limité ou sélectif aux outils d’IA. Cela semble logique, mais ne résout pas grand-chose. Ceux qui veulent abuser du système trouvent généralement un autre moyen. Ceux qui commettent des erreurs le font souvent par ignorance, et non par mauvaise volonté.

La loi européenne sur l’IA : un cadre, pas une panacée

Avec la loi européenne sur l’IA, entrée en vigueur le 2 août 2024, il existe enfin un cadre réglementaire cohérent. Sa mise en œuvre progressive donne aux organisations le temps de se préparer. Mais la préparation ne doit pas se limiter à un exercice théorique.

Sans une prise en compte de la sensibilisation des utilisateurs, la conformité risque de se détacher de la réalité. La sensibilisation n’est pas un facteur secondaire.

Les risques tels que la désinformation, la manipulation et les dommages sociaux ne sont pas résolus par des règles seules. Ils sont limités par des personnes qui comprennent ce que l’IA peut faire — et surtout ce qu’elle ne peut pas faire.

La technologie peut être complexe, mais la responsabilité reste humaine.

Des directives en matière d’IA sont nécessaires. Mais sans investissement dans la pensée critique, la formation et des cadres contraignants, tout en sachant que toutes les actions humaines ne peuvent être réglementées, elles resteront avant tout un palliatif. Le véritable défi ne réside pas dans la rédaction d’un nouveau code de conduite, mais dans l’ancrage d’une utilisation responsable de l’IA dans les actions quotidiennes.

Cet article d’opinion a été rédigé par Leo Van Dorsselaer.

La newsletter

Toute l'actualité des médias et de la publicité chaque jour

S'inscrire gratuitement
Newsletter
Adwanted Inscription