Press "Enter" to skip to content

Peut-on rendre l’IA juste ?

(vous avez quatre heures)

En bref :

Une nouvelle étude de l’Université de Californie du Sud montre que le système publicitaire de Facebook reproduit les biais sociaux de genre – il ne montre certaines offres d’emploi qu’aux hommes ou qu’aux femmes, à compétences égales -, contrairement à LinkedIn. Facebook avait pourtant promis de corriger son outil en 2019, où une autre étude soulignait le problème (la première pointant ce genre de discrimination remonte à 2016).

Qu’est-ce qui coince ? La relative homogénéité du secteur de l’intelligence artificielle (88% d’hommes en France) peut expliquer une partie du problème, mais la régulation des algorithmes soulève en réalité toute une série de questions très complexes.

Les faits : 

🧐 En 2019, Facebook déclarait “se positionner contre les discriminations de toutes les formes” et “explorer différentes manières de modifier” son système. L’entreprise a développé le Fairness flow, un outil pour aider ses ingénieurs à auditer leurs algorithmes et débusquer d’éventuels problèmes. Mais des chercheurs estiment l’outil insuffisant

🧐 La problématique des biais peut aussi bien venir des données qui entraînent les algorithmes (par exemple lorsqu’elles reflètent une situation inégalitaire) que de la taille des jeux de données, voire du système qui mène à leur construction (écosystème tech très peu diversifié, manque de formation des ingénieurs, etc). 

🤓 La définition de ce qui est juste ou éthique est complexe à établir : ce peut être la capacité de la machine à offrir l’égalité entre tous et toutes, ou au contraire sa propension à reproduire la société telle qu’elle est, entre autres points de vue. Dans une logique de profitabilité, la 2e vision peut être perçue comme la meilleure (puisqu’il “suffit” de prendre des données du passé pour permettre aux algos de faire leurs prédictions). 

⚖️ Qui doit trancher de ce qui est juste et éthique ? Les entreprises, les gouvernements, la société civile ? Et comment contrôle-t-on le respect des cadres dessinés (l’Europe y réfléchit) ?

🧐 La chercheuse Virginia Dignum argumente qu’espérer une IA totalement juste (fair) est illusoire, parce qu’on associe cela à des questions de précision et d’exactitude de résultats, alors qu’il s’agit surtout de contrôler les potentiels préjudices subis par les citoyen·nes.

🤓 L’impact de ces systèmes est réel, privant certaines d’opportunités professionnelles, renforçant certains biais policiers ou judiciaires envers la population noire, empêchant l’accès de certains groupes sociaux à différents services. À ce sujet lire cette étude, cette enquête, Algorithmes : la bombe à retardement de Cathy O’Neil (Les Arènes), ou voir Coded Bias de Shalini Kantayya. 


📒 On prend note : difficile de prendre conscience et de réguler ses propres biais quand on baigne dans un environnement homogène. Pour autant, diversifier le secteur de l’IA n’empêchera pas l’apparition d’autres questions de société qu’il faudra débattre en place publique.

📝 Pour compléter ou corriger cet article et apporter vos sources, rendez-vous sur sa version participative.

Ce billet est un exemplaire du newskit, un format qui décortique les sujets d’actualité qui prêtent à débats pour permettre des discussions apaisées malgré la propension des réseaux à jouer sur nos émotions. Pour la recevoir, abonne-toi à Flint ici. Tu recevras également une sélection de liens personnalisés, envoyée par l’intelligence artificielle de Flint.

Comments are closed.

Mission News Theme by Compete Themes.