Quatrieme Revolution

Abécédaire de l'intelligence artificielle

Le domaine de l’intelligence artificielle, qui désigne des théories et des systèmes capables d’imiter l’être humain, est associé à une série de termes qui, s'ils sont souvent utilisés, ne sont pas toujours bien compris. Comment s’y retrouver dans ce dédale lexical qui compte son lot de « buzzwords » ? Suivez le guide !

Activez une définition en glissant une lettre dans cette zone

Algorithme

a
Un algorithme, c’est l’abstraction d’une procédure informatique destinée à résoudre un problème. Il est indépendant d’un langage de programmation tout comme il est indépendant des machines qui exécutent un programme informatique. Le parallèle peut être fait avec une recette de cuisine : on mélange les ingrédients on les met dans un plat on glisse le plat dans le four on pique avec une fourchette si ce n’est pas cuit, on laisse le plat dans le four si c’est cuit, on retire le plat du four on le laisse refroidir on le mange. Ce terme trouve ses origines dans l’Antiquité. L’algorithme d’Euclide (-300 AJC), l’un des premiers algorithmes connus (et encore utilisé de nos jours), permet de déterminer le plus grand commun diviseur de deux entiers naturels. Il provient du nom latinisé du mathématicien perse Al-Khwarizmi (-9 AJC). Il est aujourd’hui porteur de connotations négatives en raison de son opacité susceptible de mettre en doute sa sincérité. Mécaniquement, un algorithme est pourtant considéré comme fiable, précis et crédible. Bien que généralement prévisible, la procédure algorithmique n’est pourtant pas à l’abri d’échecs ou de biais dans la mesure où elle est toujours le fait d’un être humain.

Blockchain

b
La blockchain désigne une technologie de stockage et de distribution de données transparente, sécurisée et fonctionnant de manière décentralisée. Cette technologie présente des garanties d’intégrité (impossible à falsifier) et de stabilité (indestructible, en principe). Pour fonctionner, elle nécessite un réseau d’utilisateurs disposant d'un ordinateur. Chaque opération effectuée par un utilisateur du réseau va être stockée dans un « bloc » qui devra être validé avant d’être ajouté à la chaîne de « blocs ». L’application la plus connue de cette technologie est celle du Bitcoin, une cryptomonnaie créée en 2009. Début 2018 en Belgique, le ministère des finances a commandé une étude visant à évaluer l’opportunité de son implémentation en vue d’obtenir une meilleure traçabilité en matière de biens immobiliers et de TVA. Elle pourrait permettre aux fonctionnaires de se concentrer sur d’autres tâches tout comme elle pourrait contribuer à réduire leurs effectifs. Sur le plan environnemental, la blockchain est une source inquiétante de pollution puisqu’elle nécessite un nombre important d’ordinateurs connectés pour fonctionner. Rien que pour le Bitcoin, elle était estimée, en août 2018, à l’équivalent de la consommation d’électricité en Autriche.

Chatbot

c
Un chatbot est un agent conversationnel ou un assistant virtuel autonome, qui est nourri par de grandes quantités de données pour répondre aux questions ou demandes de ses utilisateurs et qui s’appuie sur des technologies de traitement automatique de la langue (TAL). De nombreuses sociétés commerciales ont adopté cette technologie dans le cadre de stratégies de services à la clientèle, comme par exemple pour un service après-vente. Si l’une des applications de chatbots la plus connue est le « Messenger » de Facebook (il en comptait plus de 100.000 en 2018), il ne s’agit pas, à proprement, parler d’une nouvelle technologie. Le premier agent conversationnel s’appelait Eliza. Il a été créé en 1966 par l’informaticien germano-américain Joseph Weizenbaum. Eliza simulait un procédé de psychothérapie consistant à reformuler des affirmations en questions ; et certains de ses utilisateurs en devinrent même affectivement dépendants. Il est toujours possible de converser avec un avatar d’Eliza : faites le test ici.

Deep learning

d
Le deep learning (ou apprentissage profond) désigne une forme d’apprentissage par la machine qui est caractérisée par la mise en œuvre de réseaux de neurones artificiels qui interagissent entre eux. Cette technologie est notamment utilisée pour la reconnaissance de la parole, par exemple pour contrôler un téléphone mobile ou un système GPS ; et pour la reconnaissance d’images, par exemple dans le domaine médical.

Ethique

e
Le champ de l'éthique lié au domaine des technologies a pour objet de baliser des pratiques responsables, compte tenu de leur impact social. Il a émergé dans les années 1950, dans la foulée des travaux du philosophe et mathématicien américain Norbert Wiener (1894-1954). Les développements de l’intelligence artificielle dans une variété de secteurs ont ravivé le débat sur la nécessité d'un encadrement moral. Il s’agit aussi, pour les ingénieurs, d’exercer leur responsabilité de manière collective. Dans la littérature académique, plusieurs voix ont soutenu qu’un ingénieur n’est pas responsable sur le plan individuel, arguant qu’une technologie n'est jamais le fait d'une seule personne ; que les ingénieurs sont des individus sans pouvoir dans une organisation ; ou que ceux-ci ne peuvent être tenus responsables d'usages non prévus. Dans le cadre du développement de véhicules autonomes, le questionnement porte notamment sur la doctrine du double effet, conceptualisée en 1967 par la philosophe américaine Philippa Foot (1920-2010). Elle illustrait son propos par l'exemple d'un conducteur de tram fonçant à toute allure qui, arrivé à un embranchement, aurait le choix entre poursuivre sa route d'un côté et tuer cinq travailleurs à l'œuvre sur les rails, ou emprunter l'autre branche et tuer un travailleur isolé.

Filtres

f
Les filtres consistent en des algorithmes destinés à influencer la présentation de contenus. Un filtre de priorisation a pour objectif d’attirer l’attention sur un type d’information en particulier. Un filtre d’association a pour objet d’établir des liaisons entre plusieurs entités. Les filtres d’inclusion ou d’exclusion sont plus problématiques car ils sont susceptibles d’entraîner la création de "bulles" qui vont avoir pour effet d’enfermer l’utilisateur dans un espace défini. Les filtres d’exclusion, en plaçant hors-circuit certains types de contenus, peuvent avoir un effet assimilable à de la censure. Ces filtres ne sont généralement pas connus des utilisateurs et agissent donc à leur insu. Le phénomène des "bulles de filtres" est décrit par l’américain Eli Pariser comme l’état dans lequel se trouve un internaute lorsque les informations affichées sur une page web résultent d’une personnalisation basée sur la collecte des données de navigation de cet internaute.

Gouvernance

g
Un algorithme, c’est de la logique et du contrôle. Dans cette dernière perspective, il peut donc être considéré comme un instrument de pouvoir, un objet politique qui influe sur le social. C'est en ce sens que l'on parle de gouvernementalité des algorithmes, dont la stratégie sociale, culturelle, politique ou économique mise en œuvre en amont n'est pas apparente. De plus, il n'existe jamais une seule manière de résoudre un problème : des algorithmes différents peuvent aboutir à un même résultat. Partant de ce constat, le britannique Robert Kowalski proposait, déjà en 1979, de séparer ou tout ou moins de permettre l'identification des aspects logique et des aspects de contrôle. Il préconisait également de séparer les structures de données des procédures qui les interrogent et les manipulent. Plus récemment, Lawrence Lessig, professeur de droit à Harvard, a mis en évidence le rôle régulateur du code, implémentant (ou non) un certain nombre de valeurs, garantissant certaines libertés ou en empêchant d’autres. Il a également souligné que, en l’état, seuls les codeurs décident de la manière dont le cyberespace est régulé.

Homme-machine

h
Les interactions homme-machine font partie du champ d'étude des HCI pour Human-computer-interaction. Celui-ci se focalisent sur la manière dont a été conçu un système informatique au regard de ses utilisateurs et elles englobent plusieurs disciplines telles que les sciences de l’informatique, les sciences cognitive et l’ingénierie du facteur humain, laquelle traite de la conception des systèmes et des méthodes de travail tenant compte de la sécurité, du confort et de la productivité des opérateurs humains. Les HCI s’appuient sur l’idée que l’interaction entre un ordinateur et un utilisateur devrait ressembler à un dialogue d’humain à humain. Elle participe aujourd’hui au domaine de l’UX (user experience ou expérience utilisateur), visant à optimiser les interactions homme-machine dans la manipulation du système, tenant compte également de l’ergonomie de l’interface. Les interactions homme-machine peuvent également être comprises sous le prisme du transhumanisme, un mouvement qui prône l’usage des sciences et des technologies pour améliorer ou augmenter les capacités humaines.

Invisibilité

a
Le code informatique (code source) n’est pas apparent et les procédures qu’il exécute (algorithmes) sont rarement expliquées. Cette opacité est souvent désignée par la métaphore de la boîte noire, un concept apparu dans le courant des années 1960. En 1967, Marvin Minsky, l’un des pères de l’intelligence artificielle, estimait que la question n’est pas tant de savoir ce que les boîtes noires renferment (processus) que la compréhension de la manière dont elles se comportent (résultat). Si la transparence est de plus en plus revendiquée pour comprendre et critiquer les systèmes informatisés, la seule approche par le code ne suffit pas : on peut connaître l'input et l'output mais l'on n'en saura pas plus en ce qui concerne les processus. A supposer que l’on accède à ces derniers, ils ne diront probablement pas grand-chose sur les intentions humaines qui les ont façonnés. A supposer également que le code soit bien compris, cela ne signifiera pas pour autant que les calculs sur lequel ils s'appuient le seront aussi. Par ailleurs, le code donne de la valeur à son propriétaire quand il le commercialise : c'est la raison pour laquelle il n’est généralement pas accessible aux utilisateurs.

Langage naturel

m
Le langage naturel désigne le langage humain, par opposition au langage de programmation. Toutefois, le code informatique est rédigé dans une syntaxe qui peut être comparée aux caractéristiques du langage naturel. Un langage de programmation est un langage dit de haut niveau, tandis qu’un langage de bas niveau correspond au langage binaire de l’ordinateur. Il permet donc de s'abstraire du fonctionnement de la machine, celui-ci devant nécessairement être compilé – c’est-à-dire être réinterprété – pour être compris par la machine. Les premiers langages de programmation sont apparus il y a plus de cinquante ans (le FORTRAN en 1954, l’ALGOL en 1958, le COBOL en 1969, le BASIC en 1964). Le langage naturel est l’une des possibilités de l’intelligence artificielle, qui est d’ailleurs née dans le giron du traitement automatique de la langue. On y retrouve notamment des applications de génération automatique de textes (rédaction automatisée) et de reconnaissance automatique de la parole (par exemple, pour le développement d’assistants personnels « intelligents », à l’instar de Siri développé par Apple).

Machine learning

m
Le machine learning désigne l’apprentissage par la machine. Il s'agit d'un apprentissage statistique qui désigne les processus permettant à une machine d’évoluer de manière automatique. Pour ce faire, le système a besoin d’être entraîné, c’est-à-dire disposer de suffisamment de données pour effectuer une tâche et s’améliorer. Une journaliste américaine, Adrienne Lafrance, a voulu vérifier si un programme informatique était capable de rédiger comme elle via des algorithmes de machine learning. Le système a été entraîné avec tous les articles qu’elle avait écrits pour le journal The Atlantic mais ce corpus de 725.000 mots s’est avéré insuffisant pour que « Robot Adrienne » soit aussi vrai que nature.

Norme

n
Le terme norme est dérivé du nom latin « normat », qui signifie « équerre » ou « règle ». Les normes se présentent comme objectives mais elles aussi ne sont pas neutres : une norme consiste toujours en une convention fixée de manière arbitraire par une institution. Elle a pour caractéristiques de pouvoir être respectée ou violée. Le domaine de l’informatique est régi par toute une série de normes, destinées à fournir une « commune mesure » à ses praticiens. Des organismes de standardisation élaborent et recommandent des normes : que ce soit sur le plan de la programmation et de ses bonnes pratiques via le W3C, un organisme de standardisation sans but lucratif chargé de promouvoir la compatibilité des technologies du web ; ou sur celui de la définition de spécifications, de lignes directrices ou de caractéristiques destinés à assurer l'aptitude à l'emploi des matériaux, produits, processus et services (normes ISO).

Objectivité

o
Les promesses d’un algorithme sont celles de l’objectivité mais celui-ci n'est pas plus objectif que n’importe quel autre type de procédure, qu'elle soit informatisée ou non. Prenons l’exemple de la recette du gâteau au chocolat : vous en trouverez pratiquement autant qu’il y a de gens qui confectionnent des gâteaux au chocolat. Ce parallèle métaphorique est souvent opposé à l’algorithme, qui correspond à un processus destiné à résoudre un problème. Plusieurs chemins sont toujours possibles et les choix dépendront de différents facteurs tels que la demande du commanditaire, les contraintes techniques ou la subjectivité du programmeur. Un algorithme est aussi souvent comparé à une procédure éditoriale, laquelle se caractérise par une succession de choix qui ne sont pas dépourvus de neutralité. L’objectivité promise est donc purement mécanique. Par ailleurs, une manipulation de chiffres, statistique par exemple, n'est pas plus objective : elle ne fait jamais que présenter un point de vue sur la réalité.

Personnalité juridique

p
Faut-il doter un système automatisé ou robotisé d'une personnalité juridique propre ? En 1989, dans le contexte des systèmes experts, Cook et Whittaker suggéraient déjà un nécessaire positionnement du législateur vis-à-vis du logiciel : produit ou service ? Considéré comme produit, la responsabilité stricte de l'artefact devrait s'imposer. Considéré comme un service, la responsabilité devrait alors être envisagée sous l'angle professionnel en y opposant la notion de faute et de réparation. En France, l’avocat Alain Bensoussan considère le robot comme « un être artificiel » et propose de le doter d’une personnalité juridique. Dans une charte sur des droits des robots, il définit ceux-ci comme des machines « prenant des décisions autonomes, pouvant se déplacer de manière autonome (...) et agissant en concertation avec les personnes humaines ». L’utilisateur du robot serait le premier responsable de ses agissements, viendraient ensuite le fabricant de la plateforme, le fabricant des composants, et in fine le propriétaire du robot. Considérant que le développement de la robotique et de l’intelligence artificielle ne sera pas sans impacter l'environnement humain, la Commission européenne a récemment engagé un processus de réflexion à ce propos.

Quantification

q
La quantification transforme le monde en données et implique, en amont, des choix complexes formalisant les actes de compter, mesurer, catégoriser. Toutes les formes d'interprétation de ces quantifications dépendent donc toujours du parti pris adopté lors de la collecte, du traitement et de l'analyse de ces données. Considérées hors de leur contexte ou prises de manières isolées, les données pourraient occulter une partie de la réalité ou signifier tout autre chose. Aussi, les données peuvent-elles contenir des vérités mais aussi des contre-vérités. Si un algorithme d'exploration de données peut permettre de découvrir de nouvelles connexions entre de multiples variables ayant une très grande importance statistique en raison de l'énorme quantité de données analysées, les résultats peuvent être sans signification et n’apporter aucune valeur ajoutée. Dans le domaine de l'intelligence artificielle, cette quantification se traduit notamment sous la forme de calculs probabilistes, par exemple pour anticiper le comportement des utilisateurs ou encore en médecine prédictive. L’objet est ici de formuler des prédictions sur base d’observations antérieures.

Réalité augmentée

r
On parle de réalité virtuelle lorsqu’un utilisateur expérimente un monde simulé par un ordinateur, via des lunettes ou un casque de réalité virtuelle. Si celle-ci s’est surtout développée dans le domaine des jeux vidéo, l’apport des technologies d’intelligence artificielle a permis de lui ouvrir la voie de la réalité augmentée, où l’utilisateur interagit avec le système via des capteurs sensoriels dans un monde non plus virtuel mais bien réel. Il s’agit donc d’une expérience immersive faisant appel aux sens de l’utilisateur (vision, audition, toucher). Les applications de réalité augmentée se développent dans des domaines aussi divers que l’automobile, l’aéronautique, l’immobilier, le tourisme ou la mode.

Système expert

r
Un système expert consiste en un programme informatique qui "imite" le comportement d'un expert en utilisant des techniques de programmation telles que la représentation symbolique, l'inférence (déduction) et la recherche heuristique (résultats basés sur des résultats précédents). Il exécute donc des tâches sophistiquées qui seraient pensées comme possibles par un expert humain dans un domaine en particulier. En médecine, on retrouve des systèmes experts où une machine, selon une série de règles « si… alors », est capable de poser un diagnostic. Ils sont également utilisés par certaines entreprises pour livrer des analyses financières. La justice constitue une autre voie possible pour ces systèmes. Ils ne sont toutefois pas garantis sans défaillances : leur expertise est nourrie par des données qui peuvent contenir des biais et les règles sur lesquelles ils reposent peuvent aussi comporter des biais humains, comme par exemple privilégier tel groupe ethnique au détriment d'un autre dans le cadre d'un jugement.

Test de Turing

t
Une machine peut-elle penser, demandait le mathématicien Alan Turing en 1950. Pour répondre à cette question, il imagina un jeu de l'imitation où un juge humain est chargé de déterminer si l’entité à laquelle il s’adresse est humaine ou non. Le test est considéré comme réussi lorsque le juge ne fait plus la différence entre l’homme et la machine. Utilisé pour évaluer les qualités d'un système relevant de technologies de l'intelligence artificielle, ce test a été réussi à plusieurs reprises au cours de ces dernières années. Aujourd'hui, des agents conversationnels gèrent des relations clientèle sans que l'humain devant son écran d'ordinateur imagine que son interlocuteur soit en réalité un chatbot ; et des textes journalistiques rédigés de manière automatique sont publiés chaque jour dans la presse sans que le lecteur doute de la qualité humaine de son auteur. Néanmoins, ces programmes informatiques ne font pas autre chose qu'imiter l'être humain.

Vision par ordinateur

v
La vision par ordinateur, aussi appelée vision artificielle, se rapporte au captage d’informations visuelles par un ordinateur (le plus souvent, via une caméra). S’appuyant sur des technologies de traitement automatique d’images, son objet est d’analyser les données visuelles recueillies. Elle trouve des applications pratiques dans le domaine industriel, par exemple dans le cadre d’un contrôle de qualité de composants fabriqués en grande série. Elle fait également l’objet de recherches dans le domaine aérospatial.

Watson

t
Il est sans doute le programme d’intelligence artificielle le plus connu au monde. Développé par IBM, Watson répond à des questions formulées en langage humain (langage naturel). Il doit son nom à Thomas J. Watson, le fondateur de la société informatique qui fêtera son premier siècle d'existence en 2024. Watson s’est illustré en remportant le jeu télévisé Jeopardy! en 2011, empochant la somme d’un million de dollars. Quatorze ans auparavant, Deep Blue, son prédécesseur, avait remporté une partie d’échecs face au champion Garry Kasparov.
Ressources non-humaines

Ressources non-humaines

Aujourd’hui, des logiciels permettent déjà d’opérer l’appariement (« matching ») demandeurs d’emploi-employeurs. Demain, vous serez peut-être recrutés par un DRH virtuel. Quant à savoir si l’intelligence artificielle permettra de diminuer la discrimination à l’embauche, la réponse reste aux mains des humains.

Julie Luong
Illustration : Anne-Gaëlle Amiot

Emboîtant le pas à son homologue français de Pôle emploi, le Forem a lancé en juin dernier un nouvel outil d’appariement, ou « matching », employeur-demandeur d’emploi sobrement baptisé « Mon profil ». Sur une base volontaire, les demandeurs d’emploi wallons peuvent désormais y entrer leurs compétences (niveau et domaine d’études, maîtrise des langues, compétences numériques…) et les métiers recherchés. « L’outil regroupe déjà 15.000 profils », explique Thierry Ney, directeur communication corporate au Forem. Parmi eux, une grande majorité de jeunes travailleurs : 50% des profils sont représentés par les moins de 35 ans. Les entreprises, elles, ont déjà répondu présent avec quelque 340 recherches enregistrées quotidiennement. « Pour elles, cela représente un gain de temps très important : plutôt que de se confronter à une pile de CV, elles peuvent faire une recherche en sélectionnant directement certains critères jugés nécessaires, comme le permis de conduire ». Exit la touchante histoire du demandeur d’emploi qui ne cochait pas toutes les cases mais qui se fait engager sur la base d’une lettre de motivation qui se démarque ? « N’oublions pas qu’il y a des métiers où cet aspect créatif a clairement moins d’importance. Prenez un boucher : il existe plusieurs types de spécialisations en boucherie. Ce n’est pas une question de motivation », commente Thierry Ney, qui rappelle que cet outil n’a d’ailleurs pas vocation à remplacer l’accompagnement personnalisé ni l’offre en matière de formations proposée par le Forem. Personne pour prétendre ici que la problématique de l’emploi serait soluble dans l’intelligence artificielle…

Des données et des biais

Du reste, « Mon profil » demeure un outil relativement simple, qui ne « décide » pas à la place de l’employeur mais lui propose une présélection sur la base de critères purement factuels. Le bénéfice se traduit donc surtout par un gain de temps et le sentiment de ne pas « passer à côté » de la recrue/de l’emploi adéquat. Mais des expériences plus sophistiquées relevant à proprement parler de l’« intelligence artificielle » (IA) commencent à se mettre en place, soulevant au passage un grand nombre de questions. Il y a quelques mois, les équipes russes de L’Oréal se sont attaché les services de la DRH Véra, développée par Stafori – une start-up plébiscitée par d’autres grands groupes comme Pepsi et Ikea. Cette intelligence artificielle faisait passer aux candidats un premier entretien téléphonique. Des systèmes de reconnaissance vocale lui permettaient alors de sélectionner parmi eux les plus susceptibles de correspondre aux besoins de l’entreprise. Après quelques mois de ce régime, Véra s’est finalement « autolicenciée », n’ayant pas réussi à convaincre le géant de la cosmétique.

Les machines ont besoin de données pour fonctionner et ces données sont fondées sur des expériences de recrutement passées.

Car l’utilisation des intelligences artificielles dans le domaine de l’embauche est un sujet excessivement délicat, notamment en termes d’image. Il faut en effet pouvoir donner au public les garanties que l’utilisation d’une IA dans le processus de recrutement ne va pas à l’encontre des principes de non-discrimination prônés par la culture de ladite entreprise… « Les machines ont besoin de données pour fonctionner et ces données sont fondées sur des expériences de recrutement passées; or, depuis longtemps, les sociétés d’Europe occidentale essaient de se débarrasser de biais de recrutement et notamment de biais de discrimination raciale ou fondée sur le genre », commente à ce propos Nicolas Petit, professeur à l’ULiège et en charge d’un cours de droit de l’intelligence artificielle. « Si on nourrit les machines de ces données passées, les machines ne feront que reproduire ces biais ou les amplifier : le défi pour les programmeurs, c’est donc de travailler avec des données qui soient expurgées de ces biais ou qui les corrigent ».

L’apparition récente des outils de « justice prédictive », qui permettent de prévoir la décision d’un juge sur la base de la jurisprudence ou, comme c’est déjà le cas aux États-Unis, le risque de récidive d’un condamné, a déjà soulevé cette question. « On sait qu’aux États-Unis, le système pénal est très biaisé en défaveur des personnes de couleur : les recherches montrent aujourd’hui qu’il existe des risques constatés de discrimination assistée par l’intelligence artificielle. Or, on ne voit pas pourquoi ce qui existe dans le système carcéral ne se produirait pas dans le secteur du recrutement », avertit Nicolas Petit. C’est en ce sens que l’entreprise américaine IBM a développé récemment un logiciel « anti-biais » capable d’expliquer en temps réel les décisions de l’IA. Grâce à lui, les entreprises pourraient ainsi vérifier que leurs processus – par exemple de recrutement – ne sont pas en proie à trop de préjugés aveugles. Une sorte de bonne conscience de l’intelligence artificielle…

Illustration : Anne-Gaëlle Amiot

Recrutement prédictif

Chez Visiotalent, où l’on met en contact entreprises et recrues potentielles via des vidéos en ligne, on se félicite d’avoir déjà trouvé une solution anti-biais. « Visiotalent est né sur la base du constat que la plupart des entreprises se fondaient sur le CV pour fixer un entretien alors que le CV ne reprend que des informations factuelles et les informations que le candidat veut bien communiquer… Le côté humain et la personnalité ne sont pas pris en compte. Le problème se pose d’autant plus pour les jeunes qui cherchent un premier emploi et dont le CV est vierge. Que pourraient-ils mettre en avant ? », explique Thomas Cador, responsable Benelux pour Visiotalent. La vidéo vous met à l’aise ? Vous craignez d’être jugé sur votre monture de lunettes, votre propension à rougir ou votre accent prononcé ? Pour Thomas Cador, la vidéo est précisément un média bienveillant. « Prenez un candidat anversois avec un nom arabe. Il y a beaucoup de chances pour que, sur le CV, l’employeur se dise que son français n’est pas impeccable. Mais si la première étape est la vidéo, ce préjugé n’existe pas. Et s’il parle bien, il va passer ce stade, là où, dans le processus classique, il n’aurait même pas eu sa chance ».

Walibi recrute désormais uniquement grâce aux services de Visiotalent : le parc d’attractions a ainsi pu passer de quelque 9.000 CV à traiter annuellement à 1.500. « Walibi estime par ailleurs que, sur 1.500 vidéos reçues, environ 85% des candidats pourraient convenir. Comme la vidéo demande un minimum d’investissement, on évite en effet les CV envoyés pour justifier qu’on recherche bien un emploi », décode Thomas Cador. Si elle permet à certaines entreprises bien connues de gérer la masse de sollicitations, la vidéo permet aussi, lorsqu’elle est utilisée pour faire passer des entretiens à distance, de raccourcir les délais de recrutement… et d’avoir une chance de mettre la main sur les meilleures recrues. Enfin, pour les sociétés qui peinent à recruter, l’interface vidéo permet de placer directement le candidat dans la culture de l’entreprise en lui proposant un entretien depuis une salle d’immersion. « Aujourd’hui, un candidat ne cherche pas seulement un travail mais un endroit où travailler. Il demande à être approché par le volet émotionnel », explique Thomas Cador.

On est encore loin de pouvoir demander à un robot d’analyser (…) les émotions humaines.

Si Visiotalent propose une « chatbox » qui permet au candidat de poser des questions et d’être accompagné dans l’élaboration de sa vidéo, Thomas Cador se refuse pour l’instant à envisager l’intervention de l’IA dans l’analyse des images. Ce n’est pas encore demain que, à l’instar de ce que montre la série Black Mirror, les émotions des candidats seront décodées en direct… « Quand on sait qu’un ordinateur a besoin d’engranger 5.000 images de chats pour reconnaître un chien, on se dit qu’on est encore loin de pouvoir demander à un robot d’analyser quelque chose d’aussi complexe que les émotions humaines. Non seulement les intelligences artificielles ne sont pas prêtes à offrir un servir aussi complexe mais nous ne sommes pas prêts non plus à accepter qu’une machine nous juge », estime Thomas Cador. « Il y a beaucoup d’effervescence autour de l’IA, mais ce qu’on en imagine tient souvent davantage de l’anticipation », confirme Nicolas Petit. Même s’il ne faut pas oublier que, en dehors de la question de l’IA, le recrutement se fait d’ores et déjà sur la base d’une masse considérable de données numériques – toutes traces laissées en ligne pouvant être retenues contre le candidat.

On pourrait imaginer que le recrutement prédictif permette d’estimer la propension du futur employé à se mettre en arrêt maladie.

Comme dans le domaine de la justice, le recours progressif aux IA laisse surtout entrevoir le spectre d’un recrutement « prédictif ». « Couplé à la médecine prédictive, qui permet de dire quelles sont les pathologies en puissance chez une personne, on pourrait imaginer que le recrutement prédictif permette d’estimer la propension du futur employé à se mettre en arrêt maladie », explique Nicolas Petit. Effrayant ? Tout dépend des principes et des valeurs à partir desquels seront programmées ces machines à recruter. « Pensons aussi que l’IA pourrait permettre de corriger certains biais. Lorsqu’un DRH doit auditionner 40 personnes, il aura dans les derniers entretiens des biais de frustration et de déconcentration que la machine n’aura pas ».

IA et biais de genre

L’intelligence artificielle est-elle l’amie des femmes ? Cela reste à voir. « Dans le secteur du recrutement, la structuration des données autour du genre est importante. Et il ne suffit pas de supprimer les pronoms il/elle pour s’en défaire. Les données qui concernent la durée d’occupation professionnelle, notamment, restent désavantageuses pour les femmes en raison des périodes d’inactivité liées à la grossesse : on ne peut donc pas se contenter d’anonymiser », explique Nicolas Petit. A l’inverse, un DRH virtuel pourrait « préférer » les dossiers féminins en raison des moindres prétentions salariales communément observées chez les femmes. « Les résultats peuvent être contre-intuitifs et demandent donc une réflexion globale ».

La question se pose de manière encore plus évidente dans le secteur dit des STEM (Science, Technology, Engineering, Mathematics) où les femmes restent extrêmement minoritaires. « Les entreprises de la Silicon Valley ont essayé de mettre en place des procédures de recrutement favorables aux femmes mais cela prendra peut-être des années voire des décennies pour que ça s’équilibre. Le sujet est d’autant plus délicat que ce sont ces mêmes entreprises qui développent aujourd’hui les IA… », analyse Nicolas Petit. En août 2017, Google a d’ailleurs licencié un de ces ingénieurs, James Damore, pour avoir écrit un mémo où il justifiait la prédominance des hommes dans les STEM par l’existence de différences physiologiques et psychologiques entre hommes et femmes. Un discours essentialiste qui faisait franchement « mauvais genre » en regard du progressisme dont se prévalent aujourd’hui les GAFA…

Quatrieme revolution

L'humain bientôt obsolète ?

Menacés par la robotisation et l’automatisation, de nombreux emplois humains disparaîtraient d’ici vingt ans. Une enquête Alter Échos sur le monde du travail de demain, pour interroger les enjeux de la révolution annoncée.

Quatrieme revolution

Mythes et réalités d'une révolution

Les discours entourant la quatrième révolution industrielle font le grand écart entre les extrèmes. Ils sont nourris une série de mythes et par la crainte de voir, inéluctablement, l'homme remplacé par la machine.

Quatrieme revolution

Ce robot qui va me piquer mon job

Dans la cacophonie des études prospectives, il se dégage un consensus pour affirmer que certains secteurs seront touchés beaucoup plus durement que d'autres. Jusqu'à quel point votre métier est-il concerné ?

Quatrieme revolution

Le rire jaune de la caissière

Difficile de quantifier les pertes d’emplois résultant du déploiement des caisses automatiques mais celui-ci modifie à la fois l’organisation du magasin et le travail des employés, à commencer par celui des caissières.

Quatrieme revolution

Ressources non-humaines

Et si votre prochain DRH était un algorithme ? Des logiciels permettent déjà de « matcher » employeurs et demandeurs d’emploi. Mais le recours à l'intelligence artificielle dans le recrutement est-il garanti sans biais ?

Quatrieme revolution

Des robots au boulot

En Bretagne, ils prennent en charge un travail pénible dans des entrepôts dédiés à l'e-commerce. En Bourgogne, ils sont au services des étudiants handicapés. Nous sommes partis à la rencontre de ces robots-travailleurs.

Quatrieme revolution

Anticiper dans le respect du dialogue social

Dans les rangs syndicaux, la quatrième révolution industrielle est perçue comme une évolution du monde du travail où se jouent des enjeux de société fondamentaux. Et nous n'y serions pas bien préparés.

Quatrieme revolution

Le travail, grand impensé de notre société

Le remplacement de l’homme par la machine interroge aussi sur la place du travail dans nos représentations sociales, mentales, sur la spécificité du travail humain. Sommes-nous prêts à encaisser ce « tsunami » social ?