Amazon ferme un outil d’intelligence artificielle pour embaucher du personnel parce qu’il “discrimine” les femmes

Publié parAngie Vailenovembre 1, 2018|

Selon un rapport de Reuters, Amazon a créé une équipe d’ingénieurs à Edimbourg en 2014 pour trouver un moyen d’automatiser l’embauche. L’outil d’intelligence artificielle pour cette tâche a échoué lorsqu’ils ont découvert que le système était discriminatoire envers les femmes.

Amazon avait apparemment créé 500 modèles informatiques pour suivre les CV des candidats et collecter environ 50 000 termes clés. Le système suivrait le Web pour recommander des candidats. Comme une source l’a dit à Reuters :

Ils voulaient littéralement que ce soit un moteur où je vais leur donner 100 feuilles d’une vie, ils cracheront les cinq premières et nous les engagerons.

Cependant, un an plus tard, les ingénieurs ont remarqué qu’il y avait quelque chose d’inquiétant à propos de son moteur : il n’aimait pas les femmes. Apparemment, c’est parce que l’AI a examiné les CV à prédominance masculine envoyés à Amazon sur une période de 10 ans pour accumuler des données sur les personnes à embaucher. Par conséquent, l’AI a conclu que les hommes étaient préférables.

D’après le rapport, cela a eu pour effet d’abaisser les programmes d’études contenant les mots “femmes” et d’éliminer les candidatures féminines qui avaient fréquenté deux collèges réservés aux femmes. Les ingénieurs d’Amazon ont essayé de modifier le système pour remédier à ce biais, mais ne pouvaient pas être sûrs que l’IA ne trouverait pas de nouveaux moyens de discriminer injustement les candidats. Selon les sources :

Les préjugés sexistes ne sont pas le seul problème. Les programmes recrachent également les candidats qui n’étaient pas qualifiés pour le poste.

Solution

Solution ? Comme ils l’expliquent à l’agence, le biais algorithmique est une question épineuse, car les algorithmes peuvent détecter le biais humain subconscient. En 2016, ProPublica a découvert que le logiciel d’évaluation des risques utilisé pour prédire quels criminels étaient les plus susceptibles de récidiver était racialement biaisé contre les Noirs.

Le recours excessif à l’intelligence artificielle pour des choses comme le recrutement, la cote de crédit ou les procès en probation a également créé des problèmes dans le passé.

Amazon a indiqué qu’elle avait abandonné le projet de recrutement d’assistés sociaux au début de l’année dernière après que les cadres aient perdu confiance dans le système. Selon des sources de Reuters, les recruteurs de l’entreprise ont analysé les recommandations formulées par l’AI, mais ne se sont jamais fiés uniquement à leur jugement.

Les actualités

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *