Equité et Intelligence Artificielle. L’un des grands débats et défis auxquels notre société, à bien des égards, est aujourd’hui confrontée.
Dans la première partie de cet article (relire ici), Laurent Sorber, directeur technologique et co-fondateur de la société Radix, spécialisée en analyse de données et IA, rappelait l’importance et les impacts des biais, d’origine humaine, qui grèvent l’IA. Comment éviter que l’intelligence artificielle ne décuple des travers historiques? Comment transformer ces biais en opportunités, pour les entreprises ou tout autre acteur, de se différencier et de se bonifier en les combattant et rectifiant?
Dans cette deuxième partie de sa démonstration, Laurent Sorber illustre, au travers d’un scénario concret (le recrutement basé sur l’IA), combien les choix de rectification éthique, équitable, des biais inhérents aux modèles et algorithmes que l’on développe peuvent impacter les résultats et la nature des solutions et services que les entreprises désirent imaginer grâce à l’Intelligence Artificielle.
Pour illustrer la manière de combattre les biais dans les projets IA, nous avons créé une mise en situation interactive : en tant que directeur d’une entreprise de construction, vous souhaitez utiliser un outil de recrutement utilisant l’IA pour vous aider à sélectionner des candidats de manière équitable. La mise en situation comprend trois stratégies concrètes qui peuvent être utilisées pour traiter les biais dans l’IA.
Devriez-vous viser l’égalité dans le résultat final, la parité démographique ou l’égalité des chances? Les stratégies que vous déployez ont d’inévitables conséquences.
En tant que manager, vous êtes chargé d’embaucher 100 ouvriers du bâtiment pour un projet de construction à venir. Vous souhaiteriez utiliser un outil de recrutement IA pour vous aider à sélectionner les candidats de manière équitable en termes de genre.
Les quatre visuels ci-dessous montrent l’impact qu’a la stratégie d’équité (fairness) que vous choisissez sur les recommandations d’embauche faites par votre modèle IA.
Les chiffres au-dessus de la ligne représentent les candidats que votre modèle vous suggère d’embaucher. Les chiffres en-dessous de la ligne représentent le reste de votre “pool” de talents.
Soyez attentif à la manière dont le choix d’une mesure d’équité influence la composition de votre équipe en termes de sexe, de (véritables) compétences et de bénéfice. Où placerez-vous la barre?
Postulats de base
1. Nous partons du principe que vous êtes prêt à interviewer jusqu’à trois fois le nombre de personnes que vous souhaitez embaucher, en l’occurrence 300 personnes.
2. Nous supposons que votre réservoir de talents comprend 270 hommes (90%) et 30 femmes (10%). Note contextuelle: les inégalités de genre dans le secteur européen de la construction sont encore plus marquées: 97% d’hommes pour 3% de femmes.
3. Nous posons comme postulat que votre vivier de talents se compose de 135 hommes compétents et de 9 femmes compétentes. La proportion d’hommes et de femmes compétents est volontairement légèrement biaisée pour mieux illustrer l’effet de votre choix d’équité.
4. Nous partons du principe que chaque travailleur en construction compétent que vous engagez génère un bénéfice de 100.000 dollars, indépendamment de son genre.
5. Votre modèle de recrutement IA tente de prédire si une personne est compétente ou non et, comme tout modèle de prise de décision dans le monde réel, n’y parvient pas toujours.
Les stratégies et leur impact
1. Profit maximal
Votre modèle est entraîné pour être le plus précis possible, ce qui implique des bénéfices maximaux.
Impact: Sans tenir compte de l’équité, votre modèle IA suggère autant de candidats compétents que possible pour optimiser les profits. Comme il y a plus de candidats masculins compétents, il apprendra à préférer les candidats masculins.
2. Egalité dans le résultat
L’égalité de résultats signifie l’utilisation de quotas pour garantir que les résultats positifs sont répartis de manière égale entre hommes et femmes.
Impact: Votre modèle IA applique des quotas égaux pour parvenir à une proposition équilibrée entre les femmes et les hommes. En raison du déséquilibre entre les sexes dans le vivier de talents, il n’y a tout simplement pas assez de femmes disponibles à l’embauche pour atteindre votre quota, ce qui se traduit par 40 postes encore ouverts.
3. Parité démographique
La parité démographique est d’application lorsque les résultats positifs sont distribués en proportion du nombre d’hommes et de femmes disponibles.
Impact: Votre modèle IA suggère des hommes et des femmes proportionnellement au nombre de talents disponibles dans le vivier. En raison du déséquilibre entre les sexes dans la réserve de talents, votre modèle recommande 10 femmes et 90 hommes.
4. Egalité des chances
L’égalité des chances offre des chances égales aux personnes qui devraient obtenir un résultat positif, quel que soit leur sexe.
Impact: Votre modèle IA fait respecter l’égalité des chances pour les deux sexes et offre la même possibilité à chaque candidat qualifié, quel que soit son sexe, ce qui conduit à une recommandation de 24 femmes (5 compétentes) et de 76 hommes (75 compétents).
Raisonner en tant que membre (équitable) de la société
L’équité transcende l’IA et nécessite une réflexion de la société dans son ensemble. Si vous n’êtes pas prêt à répondre à ces questions d’équité, vous devriez au moins vous efforcer de faire preuve de transparence (expliquer comment l’IA fonctionne) et respecter la vie privée des personnes (expliquer aux personnes concernées par l’IA comment le système prend ses décisions).
En fin de compte, le Saint-Graal de l’équité en matière d’IA n’est pas de trouver une intelligence artificielle idéale, celle qui sera précise à 100% tout en étant parfaitement impartiale, car c’est tout simplement impossible. Il s’agit de se poser la question “Comment être un bon membre de la société? Comment pouvons-nous utiliser l’IA pour apporter de la valeur à la société, tout en posant des choix conscients et moraux qui seront reflétés dans nos logiciels”?
Ces aspects doivent être abordés avant de développer une IA. Il est essentiel de se rendre compte qu’il n’existe pas de définition standard de l’équité. Une telle définition nécessiterait … un biais. C’est vrai pour les décisions humaines, et c’est vrai pour les décisions faites par des machines. Sans une mesure parfaite de l’équité, un compromis doit être trouvé. La promotion de l’équité et la réduction des inégalités transcendent l’IA et le machine learning et nécessitent une approche pluridisciplinaire, impliquant notre société dans son ensemble. En fin de compte, ce sont nos choix qui feront la différence.
Laurent Sorber
directeur technologique et co-fondateur
Radix
Découvrez-nous sur Facebook
Suivez-nous sur Twitter
Retrouvez-nous sur LinkedIn
Régional-IT est affilié au portail d’infos Tribu Médias.