Salle de presse Morson Edge

Éthique de l'IA : les défis en matière de leadership et de politique qui vont au-delà de l'adoption

Un sens commun

11.02.2026

    À mesure que nous avançons dans le monde de l'IA, la question de l'éthique joue un rôle important dans l'adoption de cette technologie. La plupart des entreprises ont investi dans la technologie de l'IA au cours des dernières années, il ne fait donc aucun doute qu'elle est là pour durer, mais l'éthique et les questions relatives aux préjugés sont des sujets qui peuvent être souvent négligés et faire l'objet de raccourcis par crainte d'être dépassé par le rythme du changement. Un bon exemple en est le phénomène de l'embauche fictive, Dans ce cas, les équipes contournent les points de contrôle traditionnels en matière de droit, de ressources humaines et d'acquisition de talents pour développer rapidement des capacités d'IA afin de suivre le rythme perçu du marché, ce qui crée des problèmes potentiels en matière d'éthique et de conformité.

    Un rapport du gouvernement estime que l'adoption effective de l'IA pourrait apporter jusqu'à 400 milliards de livres sterling à l'économie britannique d'ici à 2030 grâce à l'innovation et aux gains de productivité. Cependant, l'étude fait également état d'obstacles importants, notamment une mauvaise compréhension par les employeurs des compétences en matière d'IA, des lacunes en matière de culture numérique de base dans des secteurs tels que la construction, ainsi qu'une utilisation de l'IA sans formation et sans restriction.

    Les enjeux ne pourraient être plus élevés. La façon dont les dirigeants naviguent dans cette relation en évolution façonnera l'avenir du travail lui-même. La demande en faveur d'une IA responsable et d'une réglementation stricte augmente, obligeant les entreprises à faire des choix cruciaux sur la manière de déployer et de gouverner ces technologies.

    Une vérité demeure : lorsqu'il s'agit de prendre des décisions à fort enjeu, la surveillance humaine est essentielle. Basé sur les recherches du Dr. Sarah Bankins :

    “Les gens ont reconnu à la fois les avantages et les limites de l'IA dans ces contextes décisionnels. Bien que l'IA soit considérée comme utile, il y a une forte préférence pour le maintien d'un rôle dominant pour les humains, en veillant à ce que les décisions ne soient pas laissées uniquement à un algorithme”.”

    L'éthique de l'IA dans le leadership

    La transparence et l'authenticité des dirigeants sont essentielles pour instaurer la confiance au cours d'une période potentiellement longue de transition technologique. Les stratégies de communication mises en œuvre par les dirigeants auront un impact déterminant sur le succès de l'adoption et l'expérience humaine. Lorsque les dirigeants font preuve d'initiative et d'optimisme à l'égard de l'IA, les employés sont plus susceptibles d'adopter l'IA, étant 1,5 fois plus susceptibles d'utiliser l'IA et près de 3 fois plus susceptibles de faire preuve d'initiative et d'optimisme eux-mêmes. Les entreprises leaders définissent des principes en matière d'IA, en s'alignant sur des valeurs fondamentales telles que la protection de la vie privée et l'impact sur le lieu de travail. Un message clair est essentiel : les employés doivent considérer l'IA comme un outil de collaboration et non comme un substitut. Lorsque l'IA soutient les travailleurs au lieu de les mettre sur la touche, elle améliore l'épanouissement professionnel et l'expérience sur le lieu de travail.

    Mais il ne s'agit pas seulement d'obtenir l'adhésion des employés à la technologie. L'éthique de l'IA va au-delà de la conformité de surface et des communications d'entreprise du type “nous sommes optimistes quant à la manière dont nous utilisons l'IA”. Pour certaines entreprises, les points de contrôle de la conformité peuvent être les suivants :

    Certaines entreprises ont totalement interdit l'utilisation de certaines plateformes d'IA telles que ChatGPT, invoquant le partage de données et d'informations exclusives sur une plateforme publique. D'autres ont autorisé son utilisation d'un point de vue juridique.

    Mais les juristes possèdent-ils les connaissances nécessaires en matière d'IA pour évaluer avec précision son utilisation ? Et qui a le dernier mot - un juriste, un technicien ou les deux ?

    Cela peut sembler une bonne chose et devrait certainement faire partie de l'amélioration et de l'évaluation continues. Mais qui fait partie de ce comité, quelles sont ses connaissances en matière d'IA et exerce-t-il un contrôle sur l'utilisation de l'IA dans l'ensemble de l'entreprise ?

    Encore une fois, avec toute la volonté du monde et aussi avancée que soit la technologie, il ne suffit pas de dire à l'IA de jouer franc jeu pour qu'elle y parvienne. Les employés sont-ils formés pour repérer les pièges potentiels de l'IA ?

    La position de leadership ‘human in the loop’ : étapes pour une utilisation plus éthique de l'IA

    L'utilisation éthique de l'IA ne se limite pas à quelques exercices de cochage de cases réglementaires. Il s'agit d'un projet à plus long terme qui nécessite d'analyser votre entreprise, d'identifier les principaux domaines de risque et de développer des structures de responsabilité.

    Prévoir les cas où l'IA se trompe et former les équipes

    L'IA façonne déjà la manière dont les décisions sont prises. Il est plus judicieux de prévoir les moments où elle se trompe. Aucun modèle n'est parfait. Des biais s'insinuent. Les données dérivent. Le contexte n'est pas pris en compte. Les entreprises qui considèrent l'IA comme infaillible s'exposent à des risques, et non à des progrès. La solution n'est pas de ralentir l'adoption de l'IA. Il s'agit de mettre en place des sécurités contre les défaillances.

    Commencez par une responsabilité claire. Chaque décision prise par l'IA doit avoir un responsable humain désigné. Quelqu'un qui comprend les limites du modèle, remet en question ses résultats et sait quand il faut passer outre. Les processus humains dans la boucle ne sont pas un frein à l'innovation. Ce sont eux qui la maintiennent sur la route.

    Ensuite, prévoyez l'échec avant qu'il ne se produise. Testez des scénarios dans lesquels les résultats de l'IA sont erronés, incomplets ou trompeurs. Que se passe-t-il si un système automatisé rejette des candidats solides, signale les mauvais risques ou amplifie des données faibles ? S'il n'y a pas de réponse documentée, le système n'est pas prêt à être mis à l'échelle.

    La formation des équipes est tout aussi importante que la mise au point des modèles. Les gens doivent comprendre comment l'IA parvient à des conclusions, et pas seulement comment cliquer sur un bouton. Cela implique une formation pratique sur la qualité des données, la sensibilisation aux biais, la discipline rapide et l'examen des décisions. Les équipes qui comprennent l'IA sont bien plus à même de repérer les cas où elle devine plutôt qu'elle ne sait.

    Enfin, la capacité d'IA doit être considérée comme un défi en termes de main-d'œuvre, et non de logiciels. Les organisations qui gagnent sont celles qui associent des spécialistes techniques à des opérateurs commercialement affûtés, capables de traduire leurs connaissances en actions et d'arrêter les problèmes à un stade précoce.

    Conscience de l'impact négatif sur les employés

    La plupart des gens peuvent identifier quelqu'un dans leur vie qui en dépend peut-être un peu trop, que ce soit pour rédiger des courriels ou même pour générer des points de discussion lors de réunions. Cependant, comme pour la plupart des solutions rapides, les avantages à court terme risquent d'être éclipsés par les problèmes à moyen et long terme qu'elles peuvent causer, plus particulièrement en exacerbant les ‘paresseux cognitifs’.’

    Les paresseux cognitifs sont des individus qui utilisent l'IA pour éviter toute réflexion laborieuse, même lorsqu'une situation exige clairement de l'attention, de la réflexion ou de l'analyse. L'instinct qui pousse à choisir la réponse facile, habituelle ou superficielle, ou la voie de la moindre résistance, peut s'avérer problématique lorsqu'il s'agit de traiter des problèmes et des questions plus complexes.

    L'adoption de l'IA n'est pas non plus uniforme d'un individu à l'autre et d'une génération à l'autre. Les archétypes de l'IA décrivent les quatre façons dominantes dont les employés réagissent à l'IA sur le lieu de travail.: Zoomers, Bloomers, Gloomers et Doomers. Des adopteurs précoces très enthousiastes (les "Zoomers") aux "Gloomers" résignés et pessimistes, il est essentiel de comprendre comment chaque archétype s'adaptera pour créer un environnement éthique, car des risques différents s'appliquent à des personnes différentes.

    Responsabiliser les gestionnaires

    L'utilisation éthique de l'IA ne peut être l'apanage d'une seule équipe ou être considérée comme un exercice de conformité. Elle doit être prise en charge par les responsables de l'ensemble de l'entreprise, car l'IA influence désormais les décisions quotidiennes, et pas seulement les décisions techniques.

    Les gestionnaires décident de la manière dont les outils sont utilisés dans des situations réelles. Ils approuvent les processus, fixent les objectifs et jugent les résultats. Si l'IA façonne les listes de candidats à l'embauche, les mesures de performance, les interactions avec les clients ou les évaluations des risques, les dirigeants sont directement responsables des conséquences. Déléguer l'éthique aux seuls data scientists crée un fossé entre la manière dont les systèmes sont conçus et la manière dont ils sont réellement appliqués.

    Le partage des responsabilités réduit également les risques. Les manquements à l'éthique sont rarement dus à une mauvaise ligne de code. Ils sont dus à la pression, aux raccourcis et à une responsabilité mal définie. Lorsque les responsables comprennent les biais, la transparence, la confidentialité des données et les limites des modèles, ils sont mieux équipés pour repérer les problèmes à temps et contester les résultats qui ne passent pas le test du bon sens. Cela permet de protéger les clients, les employés et la réputation de l'organisation.

    Un signal de leadership est également en jeu. Les gens prennent exemple sur leurs supérieurs. Si les dirigeants considèrent les résultats de l'IA comme incontestables, les équipes suivront. Si les responsables encouragent l'examen minutieux, le contexte et le jugement humain, le comportement éthique devient un élément de la prise de décision quotidienne plutôt qu'une politique abstraite.

    La politique en matière d'IA est d'abord une politique humaine

    La politique en matière d'IA fonctionne mieux lorsqu'elle commence par les personnes, et non par les plateformes. Trop d'organisations considèrent la gouvernance de l'IA comme un exercice technique. Un ensemble de règles écrites par les équipes informatiques ou les systèmes, axées sur les outils, les architectures et les contrôles des risques. Nécessaire, oui. Mais insuffisant. Parce que l'IA ne change pas seulement les systèmes, mais plutôt la façon dont le travail est effectué, dont les décisions sont prises et dont les personnes sont gérées, auxquelles on fait confiance et dont on les tient pour responsables. La politique en matière d'IA est donc avant tout une politique humaine.

    Les vraies questions ne concernent pas les modèles ou l'infrastructure. Elles concernent le comportement, le jugement, la propriété et l'impact. Qui est responsable lorsqu'une décision prise à l'aide de l'IA est erronée ? Comment les équipes remettent-elles en question les résultats avec lesquels elles ne sont pas d'accord ? Quelles sont les compétences dont les dirigeants ont besoin pour gérer des personnes travaillant avec des systèmes intelligents ? Où se situe le jugement humain et où doit-il toujours prévaloir ?

    Il s'agit de questions organisationnelles. Des questions culturelles. Des questions de leadership. Elles relèvent naturellement des RH, du service juridique, du service des risques et de l'entreprise, et pas seulement de l'informatique.

    La technologie doit être référencée et non centrée. La politique en matière d'IA devrait établir des principes clairs en matière d'équité, de transparence, d'utilisation des données, de renforcement des capacités et de droits de décision. Elle devrait définir comment les personnes sont formées, soutenues et protégées à mesure que l'IA remodèle les rôles et les flux de travail. Les équipes chargées des systèmes traduisent ensuite ces principes en outils, en contrôles et en architecture.

    Si l'on prend les choses du bon côté, l'IA devient un moyen d'améliorer le travail, et non une source de confusion ou de peur. Penser plus finement. Donnez la priorité aux êtres humains. La technologie suivra.

    Luciana Rousseau dirige le développement de stratégies centrées sur l'humain qui relient la recherche comportementale à la transformation organisationnelle. Forte de son expertise en psychologie du travail, Luciana aide les dirigeants à comprendre les motivations, les comportements et les dynamiques culturelles qui façonnent les performances. Contactez-la à l'adresse suivante Luciana.rousseau@morson.com

    Discutons de la manière dont nous pouvons vous aider à trouver des moyens plus intelligents et plus inclusifs d'attirer et de retenir les talents spécialisés. Parce qu'à la pointe du progrès, il n'y a pas de temps à perdre.

    Haut de page