
On parle beaucoup d’intelligence artificielle éthique. Mais concrètement, ça veut dire quoi ? Dans un monde où les algorithmes filtrent les candidatures et où les RH cherchent à gagner en efficacité, la question de la responsabilité devient urgente.
J'ai rencontré Sophie Gagnon, présidente du groupe Philia, à la journée Action IA organisée par l'OBVIA en juin. Sophie est spécialiste de l’éthique organisationnelle et nous invite à dépasser les discours pour entrer dans l’action. Car l’éthique, quand elle est bien comprise, peut devenir une boussole puissante pour naviguer dans la complexité. J'ai eu envie d'approfondir le sujet avec elle, et lui poser quelques questions:
Peux-tu te présenter brièvement et nous expliquer ce qui t'a amenée à t'intéresser à l'éthique de l'intelligence artificielle dans les organisations ?
Je suis Sophie Gagnon, présidente de Groupe Philia, ingénieure et éthicienne. Mon parcours m'a menée du milieu manufacturier vers l'éthique organisationnelle, en passant par différents postes en amélioration continue et gestion de projets qui m'ont permis de comprendre les organisations sous plusieurs angles.
L'éthique, je l'ai découverte lors de mon passage à l'OIQ (2013-2017) comme directrice adjointe au bureau du syndic. Mes enquêtes concernaient principalement les événements liés à la commission Charbonneau. Je me questionnais sur ce qui aurait pu être fait pour éviter ces scandales. C'est ce questionnement qui m'a menée vers une maîtrise en éthique appliquée et à voir dans les outils de l'éthique organisationnelle des moyens concrets de prévenir les dérives.
Nous avons créé Groupe Philia en 2018 avec la mission de rendre l'éthique vivante dans les organisations. L'arrivée de ChatGPT a créé une certaine urgence pour développer des outils pratiques d'encadrement éthique de l'IA.
D'après toi, où en sont les entreprises québécoises en matière de réflexion éthique autour de l'IA, notamment dans les fonctions RH ?
L'éthique reste méconnue dans les organisations. On en parle beaucoup, souvent de manière vertueuse comme un idéal à atteindre, ou on l'associe à des règles à suivre. Dans les organisations, l'éthique appliquée consiste plutôt en un processus réflexif permettant d'analyser les situations complexes sous différents angles, en tenant compte du contexte, des valeurs, des parties prenantes et des conséquences des décisions.
L'IA est complexe et demande aux organisations de voir les choses différemment, avec une vision systémique à long terme. On parle beaucoup d'IA éthique et responsable, mais qu'est-ce que ça veut dire concrètement ? Comme on croit généralement qu'être éthique c'est suivre les règles, et qu'en IA il n'y a pas encore de normes établies, les organisations attendent. Or on peut être proactif. Plusieurs chercheurs ont élaboré différents outils pour débuter cette réflexion.
Quels sont, selon toi, les principaux risques éthiques associés à l'adoption de l'IA en recrutement ?
On retrouve les risques classiques : discrimination, biais algorithmiques, manque de transparence, difficulté à expliquer certaines décisions, sécurité des données sensibles, déshumanisation du processus.
Mais ces risques varient énormément selon le type d'IA utilisé et évoluent avec la technologie. Il est essentiel d'analyser chaque situation pour comprendre les risques réels et les adapter au contexte.
Voici un exemple concret : une entreprise utilise un chatbot pour automatiser les entretiens de présélection, évaluant l'adéquation culturelle des candidats. Le problème ? Le modèle avait été formé uniquement à partir des réponses de gestionnaires performants d'un seul département, dans un contexte très spécifique. Lors du déploiement, l'IA a filtré négativement des profils pourtant adaptés à d'autres secteurs de l'organisation, où la collaboration et l'écoute client étaient plus valorisées.
L'IA a ainsi standardisé une seule vision de la performance, excluant des profils utiles à d'autres contextes. Le vrai danger est de croire que l'IA sait mieux que nous, alors qu'elle ne fait que reproduire ce qu'on lui a montré, parfois de manière biaisée.
Que devrait faire une entreprise qui souhaite intégrer l'IA en recrutement de manière responsable ? Par où commencer ?
La première étape consiste à évaluer la compréhension organisationnelle en matière d'IA : est-ce que les équipes comprennent ce qu'est une IA, ses limites, ses risques et ses impacts ? Cette évaluation permet d'identifier les besoins de formation pour que tous les acteurs — RH, gestionnaires, TI — puissent participer activement à une intégration responsable.
Il faut aussi clarifier les besoins réels de l'organisation. L'IA ne doit pas être adoptée pour suivre une tendance, mais pour répondre à des objectifs précis alignés avec la mission et les valeurs de l'entreprise.
Une fois ce travail amorcé, l'organisation peut établir un cadre de référence éthique incluant des principes directeurs (équité, transparence, supervision humaine) et des indicateurs couvrant tout le cycle de vie de l'IA. Il faudra identifier les risques spécifiques au recrutement ainsi que les nouveaux défis : comment utiliser le temps gagné ? Mes équipes sont-elles prêtes à collaborer avec des outils intelligents ?
Une bonne pratique est de mettre en place une équipe de pilotage interdisciplinaire pour suivre l'évolution des usages et ajuster les pratiques si nécessaire.
Pourquoi est-il important de former les professionnels RH (et pas seulement les experts IT) à l'éthique de l'IA ? As-tu des exemples d'approches qui fonctionnent ?
Les risques liés à l'IA ne sont pas seulement techniques, ils sont transversaux. Les professionnels RH prennent des décisions qui peuvent amplifier ou réduire les biais, influencer l'équité du processus de recrutement.
Former les RH à l'éthique de l'IA leur donne les outils pour poser les bonnes questions, détecter les signaux d'alerte et intégrer des principes de justice dans leur quotidien. Cela leur permet aussi de mieux collaborer avec les experts TI.
Par exemple, une entreprise de télécommunications a organisé un atelier croisé entre RH, TI et direction juridique avant d'intégrer un outil d'IA pour le tri des CV. L'atelier visait à identifier les cas d'usage à risque et développer un protocole de validation. Résultat : l'outil a été adapté pour inclure une supervision humaine sur les cas limites et éviter l'exclusion de profils non conventionnels.
Les approches collaboratives ancrées dans la réalité de l'organisation sont souvent les plus efficaces.
L'éthique, c'est souvent perçu comme flou ou contraignant. Comment peut-on donner envie aux entreprises de s'y engager sérieusement, au-delà de la conformité ?
L'éthique est perçue comme floue ou contraignante parce qu'elle est associée à des normes abstraites. Pourtant, lorsqu'on la rend opérationnelle et pragmatique, elle devient un atout stratégique.
Un bon point d'entrée consiste à intégrer la réflexion éthique dans des outils familiers, comme la gestion des risques. Quand on invite les équipes à analyser collectivement des situations ambiguës, on développe leur capacité à identifier les dilemmes et à décider avec intégrité.
Une PME manufacturière, initialement réticente à parler d'éthique, a commencé par animer des ateliers sur les risques liés à l'automatisation. À travers l'analyse de cas concrets (réduction de personnel, redistribution des tâches, décisions automatisées), les équipes ont naturellement abordé des enjeux de responsabilité et de transparence. L'éthique est venue après coup, comme un nom donné à une pratique déjà enclenchée. Cette approche rassure, valorise le jugement des équipes, et montre que l'éthique n'est pas une couche de conformité, mais une manière de mieux piloter la complexité. Un bon point d'entrée consiste à intégrer la réflexion éthique dans des outils familiers, comme la gestion des risques. Quand on invite les équipes à analyser collectivement des situations ambiguës, on développe leur capacité à identifier les dilemmes et à décider avec intégrité.
Cette approche rassure, valorise le jugement des équipes, et montre que l'éthique n'est pas une couche de conformité, mais une manière de mieux piloter la complexité.
À titre informatif, Sophie interviendra cette année à Trumontreal
Ajouter un commentaire