06.02.2026
Le recrutement fantôme pour l'IA dans les services financiers n'est pas un comportement de voyou. C'est le point de collision entre deux forces qui tirent dans des directions opposées : la nécessité d'avancer à une vitesse sans précédent dans le domaine de l'IA sur le lieu de travail et l'obligation d'opérer dans le cadre de régimes de gouvernance et de réglementation parmi les plus exigeants de tous les secteurs d'activité. Il ne s'agit pas seulement d'une question de conformité. Il s'agit d'un signal informel mais puissant d'une demande non satisfaite, de processus défaillants et d'incitations mal alignées entre l'entreprise, l'informatique et les RH.
Ce que signifie le recrutement fantôme à l'ère de l'IA
Dans ce contexte, on parle d'embauche fictive lorsque des équipes contournent les canaux officiels de RH, de recrutement et d'informatique pour recruter des personnes compétentes en matière d'IA ou mettre en place des capacités d'IA sans passer par les contrôles habituels.
Dans les services financiers, elle se concentre dans les fonctions qui expérimentent déjà l'IA à la limite de la prise de décision : fraude, risque, recherche en investissement, conseil et opérations.
Il reflète le modèle plus ancien de l'informatique parallèle dans le secteur bancaire, où les unités commerciales se procuraient discrètement des technologies en dehors du contrôle central pour répondre à des besoins urgents, créant ainsi des risques cachés en matière de sécurité et de conformité.
Vu sous cet angle, le recrutement fantôme est l'équivalent en termes de capital humain de l'IA fantôme. Les talents et les outils entrent par des portes latérales parce que la porte d'entrée est trop lente, peu claire ou bloquée.
Pourquoi les services financiers sont un point névralgique
Les services financiers sont structurellement préparés à la fois à l'adoption rapide de l'IA et au comportement de l'ombre.
Les études britanniques et internationales classent systématiquement la finance et l'assurance comme le secteur le plus exposé à l'IA, devant l'informatique. De nombreux rôles fondamentaux sont construits autour de tâches que l'IA peut augmenter ou automatiser : analystes, conseillers, gestionnaires et chefs de projet.
Cette exposition n'est pas abstraite. Elle concerne les analystes financiers, les conseillers, les chargés de clientèle, les chefs de projet et les cadres supérieurs qui travaillent à l'intersection des données, du jugement et de l'interaction avec les clients.
Dans le même temps, l'adoption est déjà bien engagée. Des enquêtes menées auprès d'entreprises de services financiers montrent que 75% utilisent déjà l'IA et que 10% prévoient de l'adopter au cours des trois prochaines années, mais citent la pénurie de talents et de compétences comme l'un des principaux obstacles non réglementaires à l'adoption de l'IA (rapport de la Banque d'Angleterre).
Une forte exposition, des compétences rares et la pression de la concurrence créent des conditions idéales pour “embaucher d'abord, expliquer ensuite”. L'embauche fictive devient une réponse adaptative dans un secteur qui estime ne pas pouvoir se permettre d'attendre.
Le paradoxe de la gouvernance par la vitesse
Les services financiers vivent un paradoxe structurel. Les conseils d'administration et les régulateurs attendent des entreprises qu'elles soient à la fois pilotées par l'IA et impeccablement contrôlées.
Les régulateurs surveillent de près la situation. Les entreprises citent la protection des données, la résilience, la cybersécurité et les règles de conduite comme des contraintes matérielles à l'adoption de l'IA. Pourtant, ces mêmes organisations s'attendent à ce que l'IA remodèle la conformité, la détection des fraudes et les opérations avec les clients, et investissent en conséquence.
Les estimations du Gartner suggèrent qu'environ 40% des projets d'IA échoueront lorsqu'ils seront collés à la gouvernance existante, ce qui renforce le risque que des projets pilotes fragmentés et dans l'ombre ne se transforment jamais en valeur de production.
Cette tension s'exprime par trois comportements prévisibles.
1. La peur de prendre du retard par rapport à la peur de ne pas respecter les règles
Les équipes s'inquiètent de perdre du terrain lorsque la gouvernance et la formation sont en retard sur l'ambition. Cette inquiétude pousse à “agir maintenant, demander pardon plus tard”.
Les fonctions de gestion des risques, de conformité et de gouvernance des modèles, confrontées à des enjeux réglementaires et de réputation, sont incitées à ralentir les choses.
2. Délais d'innovation et délais de gouvernance
La mise en place d'un rôle, d'un fournisseur ou d'une initiative d'IA approuvée peut nécessiter des mois d'approbations de la part des RH, de l'informatique, du service juridique et du service des risques.
Les outils d'IA et les cas d'utilisation évoluent en quelques semaines. Les mouvements visibles des concurrents réduisent encore la fenêtre de réponse.
3. Une appropriation diffuse des talents en matière d'IA
Les compétences en matière d'IA se situent dans les domaines de la technologie, de l'analyse, du risque, des secteurs d'activité et des ressources humaines. Dans de nombreuses institutions, aucune fonction n'est clairement responsable du recrutement dans le domaine de l'IA. Dans ce vide, les dirigeants locaux réattribuent des rôles, embauchent des sous-traitants ou créent des unités informelles d'IA dans le cadre des budgets existants.
Pourquoi les équipes contournent-elles les RH, le recrutement et l'informatique ?
La plupart des équipes ne contournent pas les voies centrales par mauvaise intention. Elles réagissent à un système qui ne correspond pas au rythme ou à la forme du travail de l'IA.
La conception traditionnelle des rôles et les cadres de compétences ont été construits pour des rôles stables et réglementés, et non pour des profils hybrides mêlant science des données, réflexion sur les produits et automatisation.
Les voies d'approbation sont souvent lentes, opaques et à plusieurs niveaux. Là où les rôles de l'IA déclenchent une surveillance de la part des RH, de l'informatique, de l'InfoSec, du risque de modèle et de la conformité, les frictions et l'incertitude poussent les équipes à trouver des solutions de contournement.
Les incitations sont mal alignées. Les unités opérationnelles sont récompensées pour les revenus, l'efficacité et les résultats pour les clients. Les RH et l'informatique sont récompensées pour le contrôle, la normalisation et la réduction des risques. Lorsque l'IA devient stratégique, c'est généralement la vitesse qui l'emporte.
Et les services financiers ont la forme. Des décennies d'informatique parallèle et d'informatique de l'utilisateur final ont normalisé l'idée que le contournement des fonctions centrales est parfois le seul moyen de faire avancer les choses.
Le risque réel inclut la conformité, mais ne s'y limite pas
Le recrutement fantôme peut être perçu comme un accélérateur. Dans la pratique, il ralentit souvent la valeur et amplifie les risques.
Les talents en IA recrutés de manière isolée conduisent à des expériences fragmentées, à des efforts redondants et à des outils incohérents. Les initiatives non coordonnées créent une dette technique et organisationnelle qui se manifeste plus tard par des problèmes d'intégration, de gouvernance et de données.
Lorsque la capacité d'IA reste dans l'ombre, les dirigeants sous-estiment à la fois les progrès et les risques, en évaluant mal où investir et où se situent vraiment les lacunes.
Les comportements conçus pour aller plus vite peuvent retarder le passage des projets pilotes dispersés à l'IA à l'échelle de l'entreprise.
Des outils non approuvés et des spécialistes non supervisés peuvent manipuler des données sensibles sur les clients et les transactions en dehors des environnements autorisés.
Les agents d'IA qui influencent les décisions en matière de crédit, de fraude, de négociation ou de conseil peuvent manquer de documentation, de tests et de possibilités d'explication, ce qui compromet les cadres de risque de modèle.
Dans un secteur considéré comme à haut risque en vertu de régimes tels que la loi européenne sur l'IA, l'utilisation non documentée de l'IA peut rapidement devenir un problème réglementaire.
Si un rôle ou un outil de l'ombre contribue à un incident très médiatisé, les organisations sont confrontées à des questions gênantes concernant l'autorisation, la surveillance et la responsabilité.
Les commentateurs de l'IA fantôme soutiennent déjà que ces outils peuvent présenter des risques plus importants que l'informatique fantôme traditionnelle, car ils influencent directement les décisions. Le recrutement fantôme est le vecteur humain du même risque.
Un signal, pas seulement une brèche
L'opportunité est de traiter l'embauche fictive non seulement comme une non-conformité, mais aussi comme une riche source d'informations sur la demande, l'innovation et le risque.
Il montre où la demande est réelle, où les processus sont défaillants et où la gouvernance ne reflète plus la manière dont le travail est réellement effectué.
Les réponses les plus efficaces se concentrent sur la découverte et la recherche de sens plutôt que sur la chasse à la conformité. Il s'agit notamment de cartographier les rôles exposés à l'IA comme indicateur de l'activité parallèle, d'analyser le travail plutôt que les organigrammes, d'utiliser les RH comme système d'alerte précoce et d'appliquer un profilage structuré des rôles et des risques en matière d'IA.
Le choix à venir
L'embauche fantôme n'est pas un problème. C'est le système qui vous indique où votre stratégie d'IA se déroule déjà sans vous.
Vous pouvez redoubler d'efforts en matière de contrôle, en chassant l'activité parallèle et en l'interrompant dès qu'elle est découverte. Vous pouvez aussi la traiter comme une carte vivante de la demande non satisfaite, des incitations mal alignées et d'une gouvernance qui ne correspond plus à la réalité.
Les entreprises qui gagneront la course à l'IA dans les services financiers ne seront pas celles qui auront les politiques les plus longues ou les diapositives les plus soignées. Elles seront celles qui parviendront à mettre rapidement en lumière l'activité de l'ombre, en l'utilisant pour repenser la manière dont les RH, l'informatique, le risque et l'entreprise partagent la propriété des talents en matière d'IA.
Si l'embauche fantôme concerne des personnes qui misent déjà leur carrière sur un avenir professionnel différent, la vraie question n'est pas de savoir comment arrêter ce phénomène, mais plutôt de savoir à quelle vitesse nous pouvons le rattraper.“
Découvrez où se situe votre organisation sur la courbe de productivité.
Réservez votre diagnostic de productivité Morson et de découvrir les informations qui favorisent une croissance prête pour l'avenir.