L’IA n’est pas neutre : quand l’algorithme apprend, qui enseigne?

Par Marina Pavlovic Rivas, Consultante indépendante en exploitation de données. Billet invité

L’intelligence artificielle (IA) fait déjà partie intégrante de notre quotidien et va être amenée à influencer directement la plupart des sphères de nos vies. Comment s’assurer que cette influence se traduise de manière positive pour l’ensemble de la société? Des décennies de recherches fondamentales ont permis de relever un défi sans précédent dans l’histoire de l’humanité : celui de développer des machines intelligentes. Le défi est maintenant de rendre ces machines morales.

L’ère de la machine intelligente

La sous-traitance de tâches humaines à des machines ne date pas d’hier. La nouveauté avec les dernières avancées en IA, c’est la nature des activités qu’il est possible d’automatiser. Des programmes informatiques peuvent désormais faire des tâches qu’on associe à l’intuition, à la créativité ou à une expertise pointue. Que ce soit conduire une voiture, analyser des textes ou interpréter des radiographies, les algorithmes font des actions qu’on croyait réservées à l’humain… et les font parfois mieux.

Un algorithme peut non seulement traiter une quantité d’informations trop massive pour n’importe qui, il peut le faire de manière plus rapide, plus précise et moins coûteuse qu’une personne. Tous les secteurs d’activité sont concernés : partout où nous devons prendre des décisions complexes, on réfléchit à comment l’IA pourrait se substituer à nous ou nous soutenir et ce, à grande échelle. Cela pose des enjeux éthiques sans précédent car l’intelligence, artificielle ou naturelle, n’est pas synonyme d’éthique.

Comment vous sentez-vous face à l’idée qu’une machine influence des décisions qui ont un impact majeur sur la vie d’individus ? Pensons par exemple au choix d’embaucher une personne, ou à celui d’en incarcérer une autre. Certains s’en réjouissent, dans la logique où diminuer l’intervention de l’humain diminuerait du même coup l’effet de nos biais qui sont à la source d’injustices persistantes. Sauf que paradoxalement, donner plus de place à la technologie peut amplifier ces biais plutôt que les atténuer.

Thomas Kvistholt via Unsplash

Le mythe d’une neutralité algorithmique par défaut

L’IA englobe le concept d’apprentissage machine. C’est en quelque sorte la capacité d’un algorithme à apprendre la meilleure recette pour réaliser une tâche, sans qu’une personne ne lui dicte cette recette. On pourrait donc penser qu’en sortant l’humain de la technologie, l’algorithme peut prendre des décisions plus objectivement que nous n’en serons jamais capables. C’est faux, du moins par défaut. Quand la machine apprend, ce sont les données qui lui enseignent et ces données sont notre miroir.

La donnée est un extrait imparfait d’une réalité. L’extrait soumis à la machine pour son apprentissage peut refléter les biais de la personne qui l’a choisi ou comporter des biais indissociables des activités humaines. Cela fait en sorte que la discrimination n’est pas éliminée, elle est automatisée. Des décisions auparavant prises par des humains ayant chacun leurs biais peuvent désormais être prises par un seul algorithme qui a détecté les biais les plus fréquents et qui les a généralisés en tant que patterns à suivre.

Joy Buolamwini, une chercheure noire au MIT Media Lab, a par exemple démontré comment des systèmes de reconnaissance faciale peuvent être racistes. Ils ne détectaient tout simplement pas son visage. Dans un autre cas, un système d'étiquetage de Google apposait la mention «Gorilles» sous la photo de deux amis noirs. Ces algorithmes ont été entrainés avec des images de personnes à l’apparence si homogène qu’ils ne peuvent pas reconnaître qu’un humain en est un s’il ne correspond pas à ce profil.

Le challenge technique de la suppression des biais peut être surmonté

Même les programmeurs les plus consciencieux ne peuvent échapper aux biais imbriqués dans les données… à moins de les altérer ou d’inciter un comportement chez l’algorithme. Il y a quelques années, des chercheurs de Microsoft ont démontré comment des algorithmes créés par leurs pairs chez Google sont involontairement sexistes. Ces mêmes chercheurs ont aussi démontré qu’il est possible de réduire fortement ces biais de genre avec des solutions techniques.

Si père est à homme ce que mère est à femme, programmeur informatique ne devrait pas être à homme ce que ménagère est à femme. Pourtant, de telles associations étaient faites par les modèles de Google, qui ont été utilisés pour développer de multiples produits comme des moteurs de recherche. Cela dépasse le problème de la représentation qui en est un majeur en soi. Si par exemple un recruteur cherche un informaticien sur ces engins, les profils d’hommes seront systématiquement priorisés. Sur la base de cas identifiés grâce au jugement d’humains, les chercheurs de Microsoft ont pu développer un autre algorithme qui filtrait automatiquement plusieurs de ces associations erronées.

Enlever les biais des algorithmes est un champ de recherche grandissant en science informatique. Des techniques de plus en plus efficaces et sophistiquées sont développées pour s’attaquer aux aspects techniques de l’enjeu des biais dans l’IA. Des algorithmes peuvent entre autres être entraînés à ne pas utiliser des variables potentiellement discriminatoires dans leurs prédictions. Penser que la problématique se limite à ces aspects techniques serait toutefois un leurre.

Annie Spratt via Unsplash

Le défi de la machine éthique est social et politique

Dans le cas où des variables potentiellement discriminatoires sont ignorées dans la prise de décision algorithmique, celle-ci devient moins précise mais plus équitable. Au-delà des défis techniques, ignorer des variables ou accepter une baisse d’exactitude, c’est un choix social. Plutôt que de dépendre uniquement des compagnies qui développent des agents intelligents, ce genre de choix devrait être collectif et des barèmes politiques devraient être mis en place pour s’assurer qu’ils soient respectés.

Les systèmes intelligents sont de moins en moins des boîtes noires pour ceux qui les développent, mais ils demeurent opaques pour les autres. Il y a des lois pour encadrer les décisions humaines, ainsi que des personnes dont le métier est de les observer, de les dénoncer ou de les évaluer. La logique devrait être la même pour les décisions prises par des IA, mais les institutions traditionnelles tardent à s’adapter. Le rôle que peuvent avoir les journalistes est d’autant plus crucial dans ce contexte.

ProPublica, une salle de nouvelles américaine à but non lucratif, l’a bien démontré depuis 2015 à l’aide d’une série de reportages qui enquêtent sur les algorithmes qui influencent la vie des citoyens et qui révèlent au grand jour des injustices méconnues. Le média a par exemple soulevé en 2016, dans une enquête qui a encore des retentissements aujourd’hui, qu’un logiciel utilisé à travers les États-Unis pour prédire les futurs criminels présentait des biais marqués contre les Noirs.

Nul besoin d’être un informaticien ou un mathématicien pour détecter ces préjudices et c’est tant mieux, comme l’impact de l’IA sur nos vies est trop grand pour laisser son contrôle uniquement entre les mains de ces experts. Ce n’est pas en regardant le code source d’un agent intelligent qu’on peut déterminer s’il agit de manière éthique. C’est l’idée avancée par un groupe de chercheurs du MIT, qui proposent qu’une science comportementale de l’IA fondée sur l’observation soit développée.

Bien que nécessaire, étudier les comportements des machines intelligentes n’est pas suffisant. Il est également indispensable d’impliquer des personnes avec des profils académiques, professionnels, culturels et socio-économiques diversifiés pour avoir des perspectives complémentaires sur la façon dont l’IA fonctionne et sur les impacts collectifs de ce fonctionnement. C’est d’ailleurs pour cette raison que des collaborations inusitées se multiplient entre autres entre ingénieurs, philosophes et citoyens dans les labos.

La question de savoir pourquoi un système est développé et à qui il servira est encore plus importante que celle de savoir comment. En septembre dernier, des chercheurs de Stanford ont entraîné des algorithmes à détecter l’homosexualité d’une personne avec une image de son visage. Leur système, bien qu’il pose des questions méthodologiques, avait un taux de précision de 81% pour les hommes et de 71% pour les femmes. L’objectif de ces chercheurs était de démontrer la faisabilité de telles technologies pour souligner l’urgence de les encadrer adéquatement.

Prôner un simple arrêt de l’utilisation de l’IA ne serait qu’une stratégie d’évitement. L’utilisation de la prédiction informatique, en opposition à la prédiction basée sur le jugement humain, exige que les règles de prise de décision soient explicites et systématiques plutôt qu’indéfinies et optionnelles. Cela nous confronte à préciser les principes éthiques qui nous régissent. C’est une ambition dont la complexité n’a d’égal que son potentiel.

L’IA apporte son lot de nouveaux enjeux et peut très bien exacerber les inégalités qui traversent déjà nos sociétés. Sans intervention assez forte et audacieuse, c’est le scénario le plus probable. Bien gouvernée, l’IA peut toutefois servir d’outil pour soutenir des mutations profondes qui sont positives pour la plupart des êtres vivants et leur écosystème. Ce n’est ni l’intelligence ni l’objectivité de la machine qui va nous permettre d’y arriver, mais bien sa moralité qui ne sera qu’un reflet de la nôtre.

 

Crédit photo de Une : Erik Eastman via Unsplash