Une perspective d’équité en matière d’intelligence artificielle

Version imprimable

Le projet

Au Canada et ailleurs dans le monde, des entreprises de nombreux secteurs ont recours à l’intelligence artificielle à des fins très diverses, allant de l’embauche de personnel à l’évaluation de différents types de risques, en passant par la formulation de recommandations en matière d’investissement. Or il est bien connu que les technologies reproduisent les contextes et les rapports sociaux, et l’intelligence artificielle ne fait pas exception. Bien qu’elle puisse être utilisée à l’avantage de groupes marginalisés, les recherches montrent qu’elle peut aussi renforcer les opinions préconçues, la discrimination et les iniquités en lien, entre autres, avec le genre, la race et la classe. Il est essentiel que les entreprises et les gouvernements mettent l’accent de façon concertée sur l’équité et l’impartialité en intelligence artificielle pour atténuer les préjudices possibles.

Le rapport de synthèse découlant du projet peut servir de ressource aux chercheures et chercheurs et aux praticiennes et praticiens souhaitant aborder l’intelligence artificielle sous l’angle de l’équité. Le rapport fait la synthèse des recherches et des connaissances existantes au sujet du lien entre l’intelligence artificielle et l’équité (ou l’iniquité) et indique les aspects dont devraient tenir compte les dirigeantes et dirigeants des secteurs public et privé au moment d’adopter l’intelligence artificielle. L’équipe de ce projet financé par le CRSH organise en outre des activités de mobilisation des connaissances à l’intention d’étudiantes et d’étudiants des cycles supérieurs en administration des affaires et du grand public, dans le but de favoriser la résolution des problèmes ayant trait à l’intelligence artificielle et à l’iniquité.

Les principales constatations

  • L’intelligence artificielle est une arme à double tranchant, puisqu’elle peut aussi bien atténuer les biais que les renforcer.
  • Comme l’intelligence artificielle utilise des méthodes de prévision statistique qui peuvent être auditées, elle peut avoir pour effet d’aider les groupes marginalisés dans des situations où les prévisions humaines peuvent être faussées par des biais cognitifs. Autrement dit, elle peut être programmée pour repérer et réduire les inégalités raciales, de genre ou autres dans les prévisions et les décisions.
  • Malgré ce potentiel, et parce que les inégalités et les iniquités profondément ancrées dans la société sont souvent représentées dans les technologies, il y a des systèmes d’intelligence artificielle qui ont renforcé la marginalisation de certains groupes, notamment les femmes et les minorités de genre ainsi que les collectivités racisées et à faible revenu. Les produits et services fondés sur l’intelligence artificielle peuvent utiliser des ensembles de données préjudiciables qui reproduisent les biais, amplifient les stéréotypes et la marginalisation, parfois pour l’obtention de profits, et (ou) accentuent les asymétries de pouvoir.
  • Voici quelques exemples tirés de la recherche : les logiciels de reconnaissance faciale sont moins précis pour les femmes racisées; les algorithmes prédictifs des services de police font que les ressources policières sont concentrées dans des collectivités racisées; les algorithmes d’évaluation des cotes de crédit peuvent sous-estimer la solvabilité de personnes marginalisées.
  • Il existe également diverses répercussions possibles de l’intelligence artificielle et de l’automatisation sur les emplois et le travail. Il se peut que des femmes et des personnes de groupes racisés et de groupes à faible revenu soient plus susceptibles de perdre leur emploi en raison de l’automatisation d’un nombre croissant d’emplois de cols bleus, blancs et roses.
  • Le renforcement des iniquités et des inégalités auquel a donné lieu l’intelligence artificielle s’est produit à cause :
    • de biais intégrés ou d’omissions importantes dans les ensembles de données utilisés pour l’intelligence artificielle;
    • de la complexité et des compromis liés à l’harmonisation de l’intelligence artificielle et des algorithmes avec des valeurs sociales comme l’équité et l’impartialité lorsque des profits sont en jeu;
    • d’un manque de transparence de la part de celles et ceux qui créent et (ou) mettent en œuvre l’intelligence artificielle, parfois pour des raisons telles que la protection de la propriété intellectuelle;
    • d’un manque de reddition de comptes à la population ou à d’autres utilisateurs de l’intelligence artificielle, souvent en raison de l’absence de politiques ou d’obligations légales à cet égard;
    • du peu de perspectives provenant de groupes marginalisés et diversifiés et de la participation limitée de ces derniers dans le secteur de la technologie.

Ce que cela suppose pour les politiques

  • Les créatrices et créateurs, les chercheures et chercheurs et les responsables de la mise en œuvre de systèmes d’intelligence artificielle peuvent accorder la priorité à l’harmonisation de l’intelligence artificielle avec des valeurs sociales comme l’équité, malgré les compromis possibles pour l’efficacité et la rentabilité. Il faut pour cela la collaboration de l’industrie, afin que les systèmes d’intelligence artificielle soient sécuritaires, responsables et équitables.
  • Les entreprises de technologie et les gouvernements peuvent accorder la priorité au financement d’initiatives visant à assurer une représentation équitable et inclusive dans la conception de l’intelligence artificielle. Le fait de tenir compte des perspectives de personnes de milieux marginalisés peut aider à créer des produits et des services qui servent mieux toutes les collectivités et à ouvrir la voie à une plus grande participation communautaire dans le domaine de la technologie.
  • Les gouvernements peuvent élaborer des politiques en matière d’intelligence artificielle qui accordent la  priorité à la reddition de comptes et à la transparence et exigent des entreprises qu’elles adhèrent à ces principes. L’Union européenne vient de dévoiler une proposition présentant le tout premier cadre juridique sur l’intelligence artificielle. Le Canada a fait quelques avancées en matière de politiques sur l’intelligence artificielle, mais leurs effets ne sont pas connus, et les réglementations pourraient être renforcées.
  • Les gouvernements et les entreprises peuvent travailler de manière à contribuer à la sécurité économique des travailleuses et travailleurs en prêtant attention aux programmes de recyclage et de perfectionnement des compétences. Ils peuvent mettre l’accent tout particulièrement sur les femmes et les autres personnes pour qui les impacts ont été les plus graves.
  • Les chercheures et chercheurs universitaires peuvent approfondir les connaissances sur l’intelligence artificielle et l’iniquité, notamment en poursuivant des travaux interdisciplinaires sur les répercussions sociales, politiques et environnementales de l’intelligence artificielle et en concevant des solutions de rechange nouvelles et différentes qui accordent la priorité à l’atténuation des préjudices.

Complément d’information

Rapport intégral (en anglais)

Coordonnées des chercheurs

Sarah Kaplan, directrice, Institute for Gender and the Economy, professeure distinguée en genre et économie et professeure de gestion stratégique, Rotman School of Management, University of Toronto s.kaplan@rotman.utoronto.ca

Carmina Ravanera, chercheure associée, Institute for Gender and the Economy, Rotman School of Management, University of Toronto carmina.ravanera@rotman.utoronto.ca

Les opinions exprimées dans cette fiche sont celles des auteurs et ne sont pas nécessairement celles du CRSH, du Centre des compétences futures ni du gouvernement du Canada.

Date de modification :