De la théorie à la pratique : trois conversations critiques sur l'adoption de l'IA sur le lieu de travail

La promesse est partout : l'IA va transformer notre façon de travailler, en nous rendant plus productifs, plus innovants et plus compétitifs. Pourtant, dans les organisations de tous les secteurs, une réalité différente se dessine. Les employés résistent discrètement aux nouveaux outils. Les RH ont du mal à justifier les investissements dans la formation. Et les dirigeants se trouvent pris entre l'urgence de la transformation et les peurs très humaines qui la bloquent.
La semaine dernière, Lepaya et Everday ont organisé une table ronde réunissant des responsables des ressources humaines, des professionnels de l'apprentissage et du développement et des consultants pour aborder trois questions pressantes concernant l'adoption de l'IA dans les organisations. Il en est ressorti non pas un recueil de bonnes pratiques, mais des conversations honnêtes sur la réalité confuse de l'intégration de l'IA sur les lieux de travail, qui n'ont pas encore compris ce que signifie réellement « maîtrise de l'IA ».

La sécurité en période d'incertitude : la psychologie de l'adoption de l'IA
La première discussion a porté sur un sujet souvent négligé dans les plans de mise en œuvre de l'IA : la sécurité psychologique. Les employés peuvent-ils admettre qu'ils ne savent pas comment utiliser l'IA ? Peuvent-ils être honnêtes à propos de leur travail généré par l'IA ? Seront-ils jugés pour les erreurs commises lors de leurs expériences ?
Ces préoccupations ne sont pas anodines. Dans de nombreuses organisations, l'utilisation de l'IA fait l'objet d'une stigmatisation tacite, les employés ne sachant pas si le fait de divulguer une assistance en matière d'IA sera considéré comme de l'efficacité ou de la paresse.
Quelques participants ont décrit que dans leur entreprise, de nombreux employés évitaient d'utiliser les outils d'IA parce qu'ils craignaient d'être considérés comme moins compétents s'ils s'appuyaient sur la technologie. D'autres ont évoqué des cas d' « utilisation parallèle » où des personnes utilisaient l'IA en secret au lieu de risquer de paraître incompétentes pour poser des questions élémentaires.
Cela crée un paradoxe : les entreprises souhaitent adopter l'IA, mais les employés craignent d'être jugés s'ils l'utilisent ou ne savent pas comment s'y prendre.
Le fossé générationnel ajoute également une autre complexité à ce problème. Les jeunes employés adoptent souvent l'IA naturellement, tandis que les cadres supérieurs qui approchent de la retraite se demandent pourquoi ils devraient investir du temps dans l'apprentissage. Comme l'a indiqué un participant : « Il me reste cinq à dix ans de carrière, pourquoi m'y intéresser ? » Cela crée des zones de résistance que les programmes de formation formels ne peuvent à eux seuls résoudre.
Créer des espaces propices à la vulnérabilité
Pour renforcer la sécurité psychologique, les organisations ont besoin d'un travail culturel intentionnel. Plusieurs stratégies pour les ressources humaines est apparu alors que les dirigeants discutaient de leurs approches :
- Normaliser la vulnérabilité de haut en bas: Les leaders qui partagent ouvertement leur parcours d'apprentissage de l'IA, y compris leurs erreurs, autorisent d'autres personnes à expérimenter. Comme l'a souligné un participant : « La principale caractéristique des dirigeants et de la sécurité psychologique, c'est qu'ils s'attendent à ce que les autres soient les premiers vulnérables. Mais tu n'as pas été vulnérable toi-même. »
- En commençant par l'expérimentation, pas par la perfection : Les entreprises qui considèrent l'adoption de l'IA comme une exploration continue plutôt que comme une maîtrise immédiate constatent un engagement accru. « En quelque sorte, nous apprenons toujours, nous essayons de nouvelles choses », a été décrite comme une approche plus efficace que de traiter chaque application d'IA comme un enjeu important.
- Aborder directement la question de la transparence : Plutôt que de prétendre que tout est d'origine humaine, les organisations ont besoin de conversations explicites sur le moment et la manière de divulguer l'utilisation de l'IA et de créer des espaces informels permettant aux gens de discuter des expériences d'IA sans pression.

Au-delà de l'incitation : repenser ce que signifient réellement les « compétences en IA »
Si le premier défi consiste à créer des environnements d'apprentissage sûrs, le second consiste à déterminer ce que les personnes ont réellement besoin d'apprendre. Lorsque la conversation a porté sur la cartographie des compétences, une tension est immédiatement apparue : Compétences en IA se sentir simultanément partout et nulle part, essentiel mais difficile à définir.
« L'IA est tellement intangible », a fait remarquer un participant. « Nous utilisons l'IA dans chaque phrase, mais ce que c'est, c'est vraiment difficile à concrétiser. »
L'esprit prime sur la maîtrise
De nombreux participants ont souligné que l'adoption réussie de l'IA ressemble moins à l'acquisition de compétences techniques qu'à l'acquisition d'habitudes quotidiennes.
Comme l'a dit un dirigeant : « Ce n'est pas une question de compétences. Les compétences vont venir. C'est une question d'état d'esprit. » L'objectif n'est pas d'apprendre à tout le monde à coder ou à devenir rapidement des experts en ingénierie ; il s'agit de créer l'habitude d'utiliser des outils d'IA le cas échéant.
Par exemple, un participant a recommandé une habitude simple : remplacer Google par ChatGPT pour les recherches quotidiennes.
« Au lieu d'utiliser Google, utilisez ChatGPT, un simple changement. Si vous utilisez exactement la même entrée dans Google, mais que vous la placez dans ChatGPT, vous obtiendrez le même résultat, mais avec beaucoup plus de détails. »
Au lieu de surcharger les employés avec des cours d'ingénierie ou des formations techniques rapides, les organisations peuvent se concentrer sur un changement progressif des comportements. Utilisez l'IA pour une seule tâche dès aujourd'hui. Demain, essayez-en un autre. Développez la mémoire musculaire en vous tournant naturellement vers les outils d'IA.

La pensée critique devient cruciale
Cependant, le changement de mentalité ne suffit pas à lui seul. Alors que l'IA facilite la création de contenu, l'esprit critique devient plus important, pas moins.
« Beaucoup de jeunes se contentent de copier-coller ce que l'IA leur donne », a observé un participant. « Ils ne le désinfectent pas, n'en vérifient pas la qualité. Cet esprit critique, c'est qu'ils n'ont pas encore l'expérience nécessaire pour savoir quand le résultat est faux. »
Cela met en lumière une idée cruciale : l'IA n'élimine pas le besoin de jugement humain ; elle l'amplifie. Sans capacité de réflexion critique, l'IA devient un outil permettant de générer plus rapidement des absurdités plausibles.
Les organisations qui s'occupent de cette question doivent se concentrer sur :
- Apprendre aux gens à utiliser l'IA comme sparring partner, pas un répondeur
- Nécessitant des itérations plutôt que d'accepter les premiers résultats
- Connecter les résultats de l'IA aux résultats commerciaux, afin que les gens comprennent quand « assez bon » n'est pas vraiment suffisant
- Relations de mentorat où des travailleurs expérimentés ont aidé les nouveaux employés à développer leur jugement
Débloquer les budgets de formation et de développement : parler le langage des affaires
La table ronde finale a porté sur le défi éternel des leaders du personnel : démontrer le retour sur investissement. Les données sur les compétences devraient théoriquement aider, mais la réalité est plus complexe.
« Je n'ai jamais eu de PDG qui me demande des données sur les compétences », a déclaré sans ambages un participant. « Ils veulent toujours les données de l'entreprise. »

Voici le problème fondamental : les données d'apprentissage se trouvent partout et nulle part. Les participants ont décrit le téléchargement d'informations à partir de plusieurs systèmes (plateformes LMS, certifications externes, inscriptions aux ateliers) sans vue unifiée.
« Il n'existe pas de tableau de bord unique qui regroupe toutes les données, il n'y a donc jamais d'image complète », explique un responsable de l'apprentissage et du développement.
Et même lorsque les données existent, elles ne racontent pas l'histoire complète.
Les certifications indiquent qu'une personne a terminé sa formation à un moment précis, mais ne disent rien sur la rétention, la candidature ou les compétences continues. Les auto-évaluations manquent de précision. Et le lien entre la formation et les résultats commerciaux reste difficile à établir.
Plutôt que de se fier uniquement aux mesures L&D traditionnelles, les participants expérimentent des approches plus sophistiquées :
- Analyse des lacunes en matière de compétences: Cartographier les compétences individuelles par rapport aux exigences du rôle, en utilisant l'auto-évaluation combinée au feedback des pairs pour créer des visualisations « toile d'araignée » montrant les lacunes.
- Suivi de la vitesse d'apprentissage : Mesurer non seulement les compétences acquises, mais aussi la rapidité avec laquelle les personnes progressent, afin d'identifier qui a besoin d'un soutien supplémentaire et quelles interventions fonctionnent le mieux.
- Connexion aux données de performance : Superposer les évaluations des compétences aux mesures de performance pour identifier les corrélations entre le développement des capacités et les résultats commerciaux.
La voie à suivre
Trois tendances claires se sont dégagées de ces conversations :
Tout d'abord, l'adoption réussie de l'IA nécessite des cadres de compétences axés sur les mentalités et la pensée critique plutôt que sur la maîtrise d'outils spécifiques.
Deuxièmement, la sécurité psychologique n'est pas un avantage ; c'est le fondement qui détermine si les gens vont expérimenter, poser des questions et, en fin de compte, adopter de nouvelles méthodes de travail.
Troisièmement, la L&D et les RH doivent apprendre à parler le langage de l'impact commercial, en reliant directement le développement des compétences aux objectifs organisationnels.
Ce qui est peut-être le plus important, c'est que ces conversations ont révélé que la plupart des organisations sont encore en train de trouver une solution. Il n'existe pas de règles parfaites, pas d'approches garanties. Les leaders qui progressent sont ceux qui sont prêts à expérimenter, à échouer, à apprendre et à réessayer, exactement la culture pour laquelle ils essaient de créer Adoption de l'IA lui-même.
Le véritable avantage concurrentiel ne réside peut-être pas dans le fait d'avoir toutes les réponses, mais dans la création d'environnements dans lesquels les gens se sentent suffisamment en sécurité pour explorer les questions ensemble.

Nous proposons une solution évolutive de formation des employés. Elle vous permet d'améliorer en permanence les compétences de votre personnel.
Réservez un appel

Related articles

Révision par :
Pourquoi les solutions de rétention des talents doivent évoluer avant 2030
Atteindre le taux de rétention des employés le plus élevé possible ne suffit plus. Au lieu de cela, les responsables RH et L&D doivent retenir les bons employés grâce à la mobilité de carrière et au développement personnalisé afin de développer des compétences d'avenir.
.png)
Révision par :
La crise de l'IA dans le conseil : les géants du secteur peuvent-ils reconstruire un modèle brisé ?
Alors que l'IA bouleverse les outils et les rôles traditionnels du conseil, les cabinets historiques sont confrontés à un point d'inflexion critique. Découvrez comment les cabinets de conseil doivent évoluer, passant de la vente d'expertise au développement de capacités basées sur l'IA.
Ready to drive impact together?
Close skill gaps, accelerate growth, and future-proof your workforce.



.jpg)
