Faut-il avoir peur de l’intelligence artificielle dans le recrutement ?

Faut-il avoir peur de l’intelligence artificielle dans le recrutement ?

L’intelligence artificielle modifie progressivement l’exercice de la plupart des professions. Les ressources humaines n’échappent pas à la règle. Nous sommes encore loin de nous faire recruter par des robots mais le rôle joué par les logiciels dans le processus grandit. Avec des conséquences positives mais aussi négatives, comme nous l’explique Hugues Bersini, professeur d’Informatique et directeur du Laboratoire d’intelligence artificielle à l’ULB.  

L’automatisation semble inéluctable. Pourquoi ? 

Quand on compare les décisions prises par des logiciels et celles prises par des humains, dans les secteurs où on peut le faire, en général les logiciels fonctionnent mieux que les humains. Ils sont plus fiables. On l’a constaté dans des situations de justice ou des situations médicales. Les logiciels se trompent moins parce qu’ils sont plus froids, ils sont moins emprunts d’émotions et de subjectivité. 

Dans certains cas, les conséquences sont bonnes mais parfois c’est un peu plus discutable. Aux Etats-Unis par exemple, ce sont des logiciels qui décident de la libération des prisonniers en sous-pesant le risque de récidive. S’il n’y a plus d’humain avec une certaine marge d’appréciation, ça peut faire pire que mieux. 

A quel point les ressources humaines sont-elles concernées par le changement ?  

C’est encore loin d’être le cas partout mais le premier scan, le premier filtre, c’est parfois déjà un logiciel qui l’exerce. A la Commission européenne par exemple, beaucoup de candidatures sont déjà balayées d’office par des logiciels. Les humains ne vont se concentrer que sur quelques dossiers.  

Comment va évoluer la profession ? 

Comme dans tous les secteurs, les personnes en charge des décisions vont devoir accepter de se reposer sur des logiciels pour les aider à prendre ces décisions. Ça implique de bien comprendre ces logiciels et ce qui en ressort, de les intégrer, de savoir quand vous devez reprendre la main. Ce n’est pas toujours si facile. Il va falloir apprendre à répartir les décisions et à accepter que l’humain ait toujours le dernier mot. C’est un peu comme les voitures autonomes. 

Mais si on sait que les logiciels prennent de meilleures décisions, ça sera très difficile pour les humains, même s’ils restent décideurs en dernier ressort, de contrer la décision prise par le logiciel. Il va falloir pouvoir le justifier. Sinon, ça pourrait aussi servir de base pour un recours.  

Si on se place du point de vue des candidats maintenant, quel est l’impact de l’IA dans le processus de recrutement ? 

Si les candidats saven que c’est un logiciel qui les sélectionne, beaucoup vont s’auto-censurer en se disant que leur dossier ne correspond pas à l’offre. Jusqu’ici, même s’ils savaient qu’ils avaient peu de chances, ils pouvaient imaginer qu’un humain aurait été sensibilisé par une lettre de candidature ou autre. Avec le logiciel, vu que les critères sont très objectivés, ce n’est pas le cas. On a vu ça avec parcoursup en France (système de sélection des candidats à l’entrée dans le secondaire, ndlr) ou le décret inscription en Fédération Wallonie-Bruxelles. 

Quel est le risque avec l’automatisation des processus de sélection ? 

L’automatisation crée de l’uniformisation et amplifie des situations qui étaient préexistantes. Ça peut aider à lutter contre la discrimination mais la diversité des profils est menacée. Il sera très difficile de prendre des chemins de traverse.  

Les gens ont mille fois raison d’avoir peur de tout ça. Mais une fois qu’on a compris le caractère efficace des algorithmes, on peut choisir de les faire fonctionner différemment. On peut par exemple ajouter une ou deux variables plus aléatoires pour satisfaire à de meilleurs objectifs. C’est à nous d’écrire ces algorithmes. 

Je travaille par exemple sur un projet appelé Citycode. On va faire l’expérience avec le décret inscriptions pour que les citoyens participent à l’écriture de cet algorithme, mais d’abord il faut qu’ils comprennent. Il ne faut pas apprendre à coder mais plutôt apprendre la logique algorithmique. Ça, c’est à la portée de toute personne avec un minimum de raisonnement logique. Il ne faut pas être informaticien. 

 

Retrouvez-nous aussi sur la page Facebook de Génération Le Soir 

Sur le même sujet
HR
 
À la Une du Soir.be
À découvrir sur Le Soir +
 

Vos réactions

Règles de bonne conduite / Un commentaire abusif? Alertez-nous

Le choix de la rédaction
  1. Coronalert partage le même code source que sa consœur allemande.

    La Belgique dégaine l’appli Coronalert, le sésame de son déconfinement

  2. Une nouvelle tuile pour l’horeca bruxellois.

    Coronavirus: les chiffres s’envolent, de nouvelles restrictions annoncées

  3. USA-ELECTION_BATTLEGROUND-POLL

    Bienvenue à Trumpville et Biden City: reportages dans les pas des partisans des candidats à la présidentielle

La chronique
  • La chronique de Carta Academica: «Les femmes et le rejet de l’Autre»

    Actuellement, à travers toute l’Europe, on observe un durcissement politique : les partis qui prônent le repli identitaire ont le vent en poupe. Montée des nationalismes et communautarismes, fermeture des frontières, diminution de la sécurité – de la solidarité – sociale, rejet de l’étranger, refus de l’autre. Ceci est concomitant avec un discours « politiquement correct » d’inclusion, de lutte contre la discrimination, de refus du refus de l’autre.

    À cet égard, les combats en faveur de l’égalité entre hommes et femmes semblent singulièrement révélateurs, et les approches féministes particulièrement riches pour la réflexion. Pourquoi ? Parce que si l’on reconnaît que nos structures sociales ont été conçues par et pour des hommes (une situation historiquement avérée) et que, malgré des évolutions saluées et salvatrices, le masculin y est encore considéré comme l’universel et le supérieur...

    Lire la suite