La résolution des préjugés en apprentissage machine exigera une touche humaine.

Notre groupe de leadership avisé examine les incidences sociétales et éthiques de l’intelligence artificielle. Dans le cadre de cette série d’entrevues, John Stackhouse interroge Layla El Asri, directrice de recherche au laboratoire de recherche Microsoft de Montréal, sur le rôle des humains dans la résolution des préjugés en IA.

John : À quel moment avez-vous pris conscience des préjugés en IA et avez-vous commencé à vous préoccuper de ce problème ?

Layla : Je réfléchis à cette question depuis seulement les trois ou quatre dernières années. C’était après mon arrivée au sein de l’équipe de Microsoft, à peu près en même temps qu’on a commencé à voir des reportages concernant différents enjeux touchant les préjugés et l’IA. Il y a eu le célèbre exemple du logiciel de Google, dont l’algorithme a classifié un Afro-américain comme un gorille. Il ne s’agissait que d’un exemple parmi d’autres de préjugés intégrés à un produit en raison d’une représentativité inadéquate des données. Il m’a beaucoup marquée, parce que l’erreur était vraiment épouvantable.

Il y a eu ensuite un autre cas concernant également un logiciel de Google. Lorsqu’on entrait dans le programme un nom surtout populaire dans la communauté afro-américaine, on recevait des annonces pour des services de recherche de casiers judiciaires. Il s’agit de préjugés intégrés à des systèmes en raison des préjugés dans la façon dont les humains utilisaient ces systèmes.

Ces exemples extrêmement frappants montraient vraiment que les choses peuvent mal tourner si nous ne faisons pas preuve d’une plus grande prudence dans l’utilisation des données avec lesquelles nous alimentons les modèles mis en œuvre.

Le modèle tente simplement d'optimiser son rendement. Il ne se demande pas : « Suis-je équitable ? »

John : En tant que scientifique, quelle est votre opinion sur les préjugés ?

Layla : Un modèle ne peut pas entretenir plus de préjugés que n’en contiennent les données qu’il utilise.

Le modèle tente simplement d’optimiser son rendement. Il ne se demande pas : « Suis-je équitable ? » Il existe des façons pour faire en sorte qu’un modèle applique ce type de contrôles, mais ces derniers doivent être intégrés au modèle. Du point de vue scientifique, cela consiste à modifier l’objectif du modèle afin qu’il ne se limite pas à maximiser son rendement, mais soit également incité à ne pas amplifier les préjugés ou à tenter d’en réduire le plus possible l’incidence.

John : La démarche nécessaire pour déboguer les préjugés, pour ainsi dire, serait-elle donc aussi simple que ce que vous décrivez ? S’agirait-il simplement de remanier le code ?

Layla : Voyez-vous, ça dépend de la situation. Dans certains cas, on peut essayer de remanier la conception d’un modèle pour faire en sorte qu’il intègre moins de préjugés ou en soit exempt. Mais dans d’autres cas, c’est tout simplement impossible. Par exemple, si vous utilisez des données produites à la suite de décisions humaines, il est possible que vous ignoriez à la base que les décisions humaines qui ont été prises ont été influencées par des préjugés. Il faut soumettre les modèles à des essais rigoureux pour déterminer s’ils intègrent des préjugés.

Pour éliminer les préjugés, il faut parfois simplement traiter de plus grands volumes de données, particulièrement si le problème est causé par une sous-représentation, comme c’est le cas des personnes à la peau plus foncée dans les systèmes de vision artificielle. Il n’y a rien d’autre à faire que de collecter des données concernant des teintes de peau plus foncées et de réentraîner le modèle afin qu’il apprenne à partir de ces nouvelles données.

John : Quelle approche appliquez-vous à Microsoft pour relever ces défis ?

Layla : Ces problèmes sont abordés de façon très différente. Il existe des groupes de recherche spécialisés sur ces questions, c’est-à-dire l’équité, la responsabilité, la transparence et l’éthique. Ces groupes se penchent sur des questions telles que la signification de l’équité dans les modèles d’apprentissage machine. Il s’agit de questions fondamentales auxquelles nous n’avons pas encore de réponses. Nous en sommes encore à l’étape de la recherche.

Il existe aussi au sein de Microsoft un comité appelé AETHER (IA et éthique en génie et en recherche). Ce comité agit un peu comme un groupe-conseil pour les équipes responsables des produits et pour la direction de Microsoft.

Ces groupes connaissent les questions techniques liées aux modèles d’apprentissage machine, ils savent ce qu’ils peuvent faire et ce qui est impossible. Il est très important de conseiller les groupes de production et la direction sur ces aspects, afin que nous puissions tous prendre des décisions éclairées concernant la sûreté du déploiement des modèles d’apprentissage machine à la lumière de nos connaissances actuelles.

Ces exemples montrent les mesures que Microsoft a mises en œuvre pour se protéger des applications dangereuses de l’IA et promouvoir une utilisation de l’IA conforme aux principes d’éthique. La réalisation d’audits a également produit beaucoup d’effets.

John : Quelles sont les personnes qui font partie de ces comités ?

Layla : Ces comités sont formés d’une bonne combinaison de spécialistes techniques et de personnes dont les antécédents sont plus axés sur la sociologie. Nos équipes comptent des historiens, des anthropologues et des sociologues qui travaillent de concert sur ces questions afin de comprendre les conséquences sociologiques potentielles de certaines technologies d’apprentissage fondées sur les données des patients.

Je crois que nous devons trouver des moyens d'établir une bonne relation de collaboration entre les modèles d'apprentissage machine et les humains, afin que nous puissions tirer parti de la stupéfiante capacité d'adaptation des humains et des formidables capacités de calcul et de traitement des données des modèles d'apprentissage machine.

John : Vous avez parlé un peu plus tôt des conséquences non voulues de l’apprentissage machine. L’apprentissage humain et la prise de décisions par des humains entraînent de nombreuses conséquences involontaires. Devrions-nous éprouver plus de confiance à l’égard de la capacité de la science de minimiser les conséquences non voulues des activités similaires effectuées par des machines ?

Layla : Vous savez, je veux faire preuve d’optimisme envers l’avenir et croire que la réponse à cette question sera positive.

Par contre, l’une des très importantes faiblesses que je constate à l’heure actuelle, et qui m’incite à répondre « non » à cette question, a trait au fait que les modèles sont entraînés à partir de données historiques et ne peuvent donc pas changer. Cela ne pourra se produire que si l’on modifie leurs objectifs d’apprentissage ou les jeux de données à partir desquels ils ont été entraînés. En outre, à l’heure actuelle, ces modèles ont besoin de grands volumes de données pour apprendre quelque chose de nouveau.

Pour leur part, les humains s’adaptent très rapidement. Si votre organisation vit un problème lié à des préjugés, vous pouvez en parler aux employés et les sensibiliser à la question, et ils réagiront très rapidement. À l’heure actuelle, les modèles d’apprentissage machine ne sont pas en mesure de réagir aussi vite. On doit leur fournir une grande quantité de données pour les réentraîner.

Je crois donc que pour l’instant, tant qu’ils ne pourront pas vraiment s’adapter rapidement et apprendre de nouvelles notions, les modèles d’apprentissage machine devront être soutenus par des interventions humaines. Et je crois aussi que nous devons trouver des moyens d’établir une bonne relation de collaboration entre les modèles d’apprentissage machine et les humains, afin que nous puissions tirer parti de la stupéfiante capacité d’adaptation des humains et des formidables capacités de calcul et de traitement des données des modèles d’apprentissage machine.

John : Pour conclure, j’aimerais vous poser une question sur les systèmes de dialogue. La voix et le texte sont-ils faussés par des préjugés ? En tant que consommateurs ou producteurs d’information sous forme de fichiers texte ou vocaux, de quoi devons-nous nous soucier ?

Layla : Un modèle qui ne comprend que certaines personnes et certaines voix et ne peut comprendre, par exemple, les personnes âgées ou celles dont l’accent est différent engendre un système comportant des préjugés, parce qu’il ne s’applique pas à tous. Ce qui est intéressant chez les humains est leur faculté de pouvoir s’adapter à n’importe qui, ou presque, et de comprendre toutes sortes d’accents. Les modèles d’apprentissage machine ne sont pas nécessairement en mesure d’en faire autant.

Et même dans le cas des documents texte, si un modèle ne comprend que la langue soignée et est incapable de comprendre certains idiomes ou variantes populaires de la langue pour laquelle il est conçu, ce produit n’est pas adapté à tous et présente donc un problème lié aux préjugés.

Le modèle doit pouvoir comprendre la totalité des personnes constituant son public cible, c’est-à-dire tous les individus à qui le modèle est destiné.

John : C’est fantastique. Ce sont des réflexions inspirantes. Merci.

Layla : Très bien. Merci.
 

À titre de premier vice-président, Bureau du chef de la direction, de RBC, M. Stackhouse est chargé de l’interprétation des tendances mondiales et de renseigner la haute direction et le Conseil d’administration sur l’incidence de ces tendances sur RBC, ses clients et la société en général. Avant son entrée au service de RBC, il a été rédacteur en chef du Globe and Mail de 2009 à 2014, éditorialiste en chef de son magazine Report on Business, éditorialiste en chef national et international du journal et, de 1992 à 1999, correspondant à New Delhi en Inde.

Le présent article vise à offrir des renseignements généraux seulement et n’a pas pour objet de fournir des conseils juridiques ou financiers, ni d’autres conseils professionnels. Veuillez consulter un conseiller professionnel en ce qui concerne votre situation particulière. Les renseignements présentés sont réputés être factuels et à jour, mais nous ne garantissons pas leur exactitude et ils ne doivent pas être considérés comme une analyse exhaustive des sujets abordés. Les opinions exprimées reflètent le jugement des auteurs à la date de publication et peuvent changer. La Banque Royale du Canada et ses entités ne font pas la promotion, ni explicitement ni implicitement, des conseils, des avis, des renseignements, des produits ou des services de tiers.