Gagner la confiance du public à l’égard de l’intelligence artificielle : une question de politique ou d’acceptabilité sociale?

par Ted Hewitt


Cet article a d’abord été publié en anglais dans le Globe and Mail, le 5 mai 2019.


Après les récents accidents ayant impliqué des Boeing 737 MAX 8, avez-vous commencé à vous inquiéter du type d’avion que vous prendrez lors de votre prochain voyage? Et que ressentez-vous à l’idée que vos enfants puissent se rendre à l’école à bord d’une voiture ou d’un autobus scolaire sans conducteur, compte tenu de la récente série d’accidents impliquant des véhicules autonomes? Feriez-vous autant confiance à un diagnostic médical et à un traitement pharmacologique guidés par l’analyse de données qu’à l’opinion de votre médecin de famille?

L’intelligence artificielle (IA) suscite aujourd’hui d’innombrables discussions et débats. Pendant que les développeurs et les entreprises de technologie applaudissent les progrès réalisés dans ce domaine, les détracteurs nous mettent en garde contre le risque que des machines à l’intelligence supérieure détruisent l’humanité. Mais nous n’accordons pas suffisamment d’attention aux nombreuses applications d’IA qu’on nous incite à acheter, vous et moi. Que faudra-t-il pour nous convaincre de la légitimité des systèmes complexes que renferment ces boîtes noires, des systèmes que nous ne comprenons pas et dont les entreprises déclarent souvent le contenu confidentiel? Cette question ne relève pas seulement des politiques gouvernementales ni des lois actuelles ou à venir.

Jusqu’ici, on nous a vendu de nombreuses nouvelles technologies, comme celles des électroménagers et des téléphones intelligents, avec la promesse qu’elles nous feraient économiser temps et efforts. La société a en grande partie accepté cette logique. Mais l’IA est fort différente des technologies qui l’ont précédée parce que, dans bien des cas, les humains n’en ont pas le contrôle et que des machines se chargent de réfléchir à leur place. Des algorithmes influent sur la prise de décisions dans tous les domaines de notre vie, qu’il s’agisse entre autres de nos achats, de nos opérations bancaires, d’une embauche, de notre travail, de nos rencontres et fréquentations ou des services de police, d’éducation, de transport ou de santé. On nous propose ces avancées qui nous offrent, affirme‑t‑on, plus que des économies de temps ou de main-d’œuvre, de faire l’économie de la réflexion. Mais il se peut fort bien que réduire la part de l’humain dans le processus décisionnel soit beaucoup moins populaire, auprès du public, qu’une productivité accrue et davantage de temps libre.

Nous devons donc mieux comprendre l’attirance et les attentes de la population à l’égard de l’IA et étudier et délimiter son acceptabilité sociale (c’est-à-dire l’acceptation ou le soutien que le public accorde aux projets ou aux pratiques). Les entreprises et les gouvernements ne peuvent pas s’arroger leur acceptabilité sociale. Pour qu’une technologie ou une application puisse évoluer et être diffusée et adoptée, elle doit jouir d’un degré suffisant de légitimité, d’acceptation et de confiance. Les personnes les plus touchées doivent également donner leur consentement éclairé. Il suffit de penser à ce qui est arrivé à des sociétés du secteur de l’énergie comme Shell, en Afrique, et BP, dans le golfe du Mexique, lorsqu’elles ont cessé d’être socialement acceptées. L’opposition des Européens aux organismes génétiquement modifiés est un autre exemple qui fait réfléchir aux conséquences d’un manque d’acceptabilité sociale.

La recherche sur l’acceptabilité sociale a principalement porté sur le secteur des mines, des forêts, de l’énergie et de l’exploitation d’autres ressources naturelles. Il est maintenant temps de se pencher sur l’acceptabilité sociale de l’IA dans toute sa portée. Certaines études en sciences humaines examinent déjà les problèmes de protection des renseignements personnels découlant de la collecte de données par les applications d’IA, en particulier dans le domaine de la santé. D’autres portent sur des cadres éthiques et réglementaires, en particulier dans le cas des robots militaires autonomes, des véhicules sans conducteur et des robots sociaux. Des chercheurs ont relevé des problèmes de discrimination programmée attribuables aux partis  pris des programmeurs eux-mêmes, par exemple dans le cas de systèmes de reconnaissance vocale qui ne décodent pas correctement le discours des femmes ou des locuteurs étrangers; de logiciels d’étiquetage de photos qui confondent certains humains et des animaux; et de systèmes logiciels de guidage d’aéronefs qui supposent qu’un avion est sur le point de décrocher (comme dans le cas du Boeing 737  MAX 8).

Selon certaines études, le placement automatisé de publicités et d’autres messages, dans le cadre d’invitations autrement inoffensives lancées sur des sites Web, peut aiguiller les utilisateurs vers des sites de fausses nouvelles. Dans le même ordre d’idées, des hyperliens figurant sur un site de diffusion en continu populaire et devant mener à du contenu supplémentaire peuvent subtilement attirer les utilisateurs dans les filets de groupes extrémistes. Dans un cas comme dans l’autre, la recherche indique que ces phénomènes mettent en péril non seulement les personnes, mais éventuellement la démocratie elle-même, car ils relativisent la vérité, exagèrent certaines menaces ou désignent à tort certaines personnes comme des ennemis du peuple.

Les progrès technologiques dans le domaine de l’IA sont très rapides. L’élaboration de cadres éthiques comme la Déclaration de Montréal permet de guider l’utilisation de l’IA. Nous avons maintenant besoin d’études rigoureuses sur la manière dont les êtres humains réagissent aux environnements régis par des machines et les adoptent. Que faut-il pour gagner la confiance de la population à l’égard de l’IA et établir la légitimité des applications et des solutions lui faisant appel? Quel est le niveau de risque acceptable? Quels critères détermineront les décisions à déléguer à des machines? Quel degré de surveillance humaine accepterons‑nous et dans quels cas? Dans quelle mesure devons-nous comprendre le fonctionnement de la boîte noire pour nous y fier?

Le Canada est déjà un chef de file dans la recherche scientifique sur l’IA, comme en témoigne éloquemment la remise du prestigieux prix Turing à Yoshua Bengio, Geoffrey Hinton et Yann LeCun pour leurs travaux d’avant-garde sur l’apprentissage profond. Il est maintenant temps d’intensifier la recherche interdisciplinaire sur l’acceptabilité sociale et sur les paramètres d’acceptabilité nécessaires pour éclairer la conception responsable et éthique des systèmes d’IA. Après tout, les impacts de l’IA sur la société et les relations entre la technologie et l’humain sont tout aussi importants que les exploits scientifiques qui la sous-tendent.