L’intelligence artificielle est aujourd’hui omniprésente. Et nous y sommes devenus tellement habitués que nous n’y prêtons plus attention. Elle travaille en coulisse quand nous posons des questions à nos haut-parleurs intelligents, quand on nous propose la prochaine chanson à écouter, ou encore quand notre boîte de réception filtre les pourriels. Mais comme l’intelligence artificielle joue un rôle de plus en plus grand dans notre vie et notre travail, ses biais intrinsèques ont aussi un plus grand effet.

Une récente enquête réalisée par Borealis AI, l’institut de recherche en intelligence artificielle de RBC, a révélé que 88 % des entreprises croient qu’elles n’échappent pas aux biais internes. Pourtant, la moitié (44 %) des entreprises ne comprennent pas les problèmes éthiques que présentent les biais de l’intelligence artificielle.

L’utilisation massive des données et de la biométrie pendant la pandémie de COVID-19 n’a fait que rendre plus nécessaire l’examen de cet enjeu.

« L’intelligence artificielle amplifie le déséquilibre de pouvoir entre ceux qui produisent des données sur la population, et la capacité de cette population à comprendre qu’elle est surveillée », explique Ruha Benjamin, sociologue et professeure agrégée en études afro-américaines à l’Université Princeton, qui a récemment participé à une baladodiffusion de la série Les innovateurs RBC portant sur l’éthique de l’intelligence artificielle.

Donc, à quoi devons-nous réfléchir alors que nous sommes de plus en plus dépendants à l’intelligence artificielle ?

L’intelligence artificielle amplifie les biais

L’intelligence artificielle comporte un important élément humain. La technologie modifie notre façon de vivre et de travailler, mais nous la façonnons aussi. Après tout, ce sont des humains qui conçoivent les algorithmes, et les résultats générés par l’intelligence artificielle dépendent des données qu’on lui fournit. Par exemple, certains des premiers systèmes et algorithmes de reconnaissance faciale comportaient des biais ethniques. Leur reconnaissance des visages non blancs était hautement imprécise, en grande partie à cause des données d’entrée trop axées sur les hommes blancs. Selon une récente enquête de la BBC, les photos de femmes au teint très foncé donnaient quatre fois plus de résultats de « mauvaise qualité » que les photos de femmes au teint clair.

« L’intelligence artificielle amplifie rapidement les faiblesses de conception, et c’est le risque que nous devons gérer et atténuer », dit Saadia Muzzafar, une entrepreneure et auteure canadienne, fondatrice de TechGirls Canada, un organisme sans but lucratif qu’elle a créé pour favoriser la présence des femmes dans les secteurs de la science, de la technologie, de l’ingénierie et des mathématiques.

Les résultats de l’enquête soulèvent des questions sur l’essence de l’humanité et sur la relation que nous entretenons avec ces machines. Les algorithmes ne se soucient pas de ce que nous sommes ; bien utilisée, l’intelligence artificielle peut intégrer un large spectre de points de vue, à condition que les données soient de qualité et équitables.

L’intelligence artificielle responsable est possible

De nombreuses entreprises canadiennes ne savent pas exactement comment utiliser l’intelligence artificielle de façon responsable. Selon un récent rapport de Leadership avisé RBC sur l’utilisation de la reconnaissance faciale, six entreprises canadiennes sur dix considèrent que l’intelligence artificielle concerne surtout les grandes organisations.

Toutefois, son utilisation se généralise rapidement. Et peu importe l’ampleur de la tâche, les entreprises qui mettent au point l’intelligence artificielle doivent éviter de travailler en vase clos. Le Canada abrite les chefs de file mondiaux du développement éthique de l’intelligence artificielle. C’est ici qu’on a signé la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, qu’on a élaboré la certification de protection de la vie privée dès la conception, et que le CIFAR a créé le programme IA et société. C’est dans ce contexte que RBC et Borealis ont lancé RESPECT AI, une plateforme offrant aux entreprises des solutions pratiques pour adopter l’intelligence de façon responsable.

« Au Canada, nous pouvons relever la barre en nous imposant des normes plus strictes. Nous devons envisager cet enjeu à long terme, conclut Mme Muzzafar.

Nous, les humains, savons comment maîtriser cette technologie – le rendement de l’intelligence artificielle dépend essentiellement de sa conception. Nous devons simplement la concevoir mieux ».

 

Le présent article vise à offrir des renseignements généraux seulement et n’a pas pour objet de fournir des conseils juridiques ou financiers, ni d’autres conseils professionnels. Veuillez consulter un conseiller professionnel en ce qui concerne votre situation particulière. Les renseignements présentés sont réputés être factuels et à jour, mais nous ne garantissons pas leur exactitude et ils ne doivent pas être considérés comme une analyse exhaustive des sujets abordés. Les opinions exprimées reflètent le jugement des auteurs à la date de publication et peuvent changer. La Banque Royale du Canada et ses entités ne font pas la promotion, ni explicitement ni implicitement, des conseils, des avis, des renseignements, des produits ou des services de tiers.