📅 Et si on en parlait en direct ?

Rendez-vous le 24 juin à 13h pour un webinaire gratuit.

Comment rendre la sélection et le développement des professionnels de l’IA moins intimidants ?

Les intelligences artificielles, en particulier les modèles de langage comme ChatGPT, sont capables de générer des textes à partir d’instructions textuelles. Un essai sur la chute de l’Empire romain ? Un poème d’amour ? Une analyse d’un examen médical ? Pas de problème : l’outil produira une réponse cohérente, parfois étonnamment crédible.

Mais faut-il vraiment lui faire confiance dans des domaines complexes comme la médecine ou la psychologie ? Pas encore.


Comment fonctionne (vraiment) une IA comme ChatGPT ?

Contrairement à ce que l’on pourrait croire, ChatGPT ne « comprend » pas le monde comme un humain. Il ne connaît ni la médecine, ni la poésie, ni l’histoire antique. Ce qu’il sait faire, c’est établir des associations entre les mots, en se basant sur d’immenses volumes de texte. Quand on lui demande un essai sur la chute de Rome, il reconnaît les termes « essai » et « chute de Rome », puis génère une suite de mots qui semblent logiques et pertinentes par rapport à ce sujet.

En clair, il ne réfléchit pas : il prédit. Grâce à des milliards de calculs, il propose une réponse qui a l’air juste, parce qu’elle ressemble à ce qu’il a déjà « vu » ailleurs.


Et les tests Hogan dans tout ça ?

Puisque ChatGPT peut traiter à peu près n’importe quel input textuel, il est tentant de lui fournir des scores issus des évaluations Hogan pour voir ce qu’il en dit. Et effectivement, il répond.

Par exemple, on lui a demandé d’interpréter un score de 5 à l’échelle « Ambition » du HPI (Hogan Personality Inventory). Sa réponse :

« Votre score à l’échelle Ambition est faible, ce qui suggère que vous ne recherchez pas forcément pouvoir, statut ou richesse. Vous êtes peut-être satisfait·e de votre position actuelle et ne ressentez pas le besoin de toujours viser plus haut. Cela peut être perçu positivement, car cela vous permet de vous concentrer sur d’autres aspects importants de la vie. »

C’est fluide, cohérent… mais pas forcément fidèle à l’approche Hogan. L’interprétation passe à côté de notions centrales : potentiel de leadership, capacité à se projeter, aisance en public… Des éléments essentiels de l’échelle « Ambition ». Autrement dit : ce que ChatGPT dit semble pertinent, mais il s’appuie sur une définition générale du mot « ambition », pas sur la théorie Hogan.


Une différence de taille : l’approche scientifique

Les rapports et guides d’interprétation Hogan reposent sur des années de recherche scientifique. Chaque score est lié à des comportements observables et des résultats empiriques. Ce qu’un score veut dire, c’est ce qu’il prévoit. Et c’est cette logique qui structure l’ensemble des rapports Hogan.

Cela ne veut pas dire que les IA ne pourront jamais produire des interprétations pertinentes des scores Hogan. Des efforts sont en cours pour entraîner des modèles de langage sur la terminologie spécifique de Hogan. Mais pour l’instant, la prudence s’impose.


Notre recommandation ? Faites appel aux pros.

Nos propres tests ont montré que ChatGPT peut parfois produire des interprétations très éloignées de la réalité, voire carrément fausses. Tant que la technologie n’a pas atteint un niveau de fiabilité suffisant, mieux vaut éviter de déléguer l’analyse d’un profil Hogan à une IA généraliste.

Pour une interprétation rigoureuse, solide et utile, faites appel à un expert certifié Hogan.

Ce texte est une traduction et adaptation de l’article original en anglais Using AI to Interpret Hogan Scores, publié sur le blog de Hogan Assessments et rédigé par Ryne Sherman, PhD, Chief Science Officer chez Hogan Assessments.