Les technologies du vivre-ensemble : comment façonner un avenir équitable grâce à l’IA

Événement
19 juin 2025

De l'innovation à l'inclusion : le potentiel de l'IA pour le bien social   

Par Mahmoud Shabeeb

Alors que l'intelligence artificielle (IA) transforme rapidement tous les aspects de notre vie, la question urgente n'est pas seulement de savoir ce que ces technologies peuvent faire, mais comment elles peuvent servir chacun.e d'entre nous, de manière équitable et responsable. Lors de la causerie Voir Grand organisé cette année par la Fédération des sciences humaines, des expert.e.s de divers secteurs se sont réuni.e.s pour explorer comment nous pouvons mobiliser la technologie afin de favoriser le bien-être collectif, démocratiser la prise de décision et veiller à ce que l'innovation soit véritablement inclusive dans les faits, et pas seulement un mot à la mode. 

Les données comme contrat social 

Heather Krause, éminente scientifique des données et défenseure de l'équité en matière de données, suggère de recadrer la collecte de données comme un contrat social. « Il y a une propriété. Il y a un contrôle. Il y a toujours un prix à payer dans la relation avec les données », explique Krause, soulignant que « chaque acte de partage de données implique des choix tant pour le donneur que pour le receveur ». Elle fait valoir que ce contrat est souvent négligé dans la précipitation pour collecter et analyser les données, en particulier lorsque les institutions collectent des informations auprès de communautés en leur promettant des changements positifs.  

Les données, entre nuisance et aide 

Le modérateur Ryan Morrison a soulevé un point critique : « Les données peuvent être nuisibles, en particulier pour les groupes qui méritent l'équité. » Ce préjudice n'est pas toujours intentionnel. Comme l'a fait remarquer Krause, « il est en fait extrêmement facile d'utiliser la technologie et les données pour attaquer des personnes, mais le problème dont nous parlons aujourd'hui est un préjudice involontaire, ou moins intentionnel ». Les trois panélistes ont convenu que même les meilleures analyses statistiques peuvent involontairement reproduire et amplifier les préjugés existants (racisme, classisme, sexisme) si nous ne sommes pas vigilant.e.s quant aux choix intégrés dans nos algorithmes. 

Construire des solutions à partir de zéro 

Debra Lam, directrice générale fondatrice du Partnership for Inclusive Innovation, a proposé une approche pragmatique de la technologie et de la recherche communautaire. « Nous commençons par le problème, qu'il s'agisse du logement, de l'énergie ou de tout autre sujet. Nous n'apportons pas de solution générique. Nous essayons plutôt de comprendre le problème, de collecter des données, de les analyser et de partir de là. » Le travail de son équipe dans l'État de Géorgie démontre que l'innovation inclusive signifie résister aux technologies « miracles » et co-créer des solutions avec les communautés, en reconnaissant qu'aucun ensemble de données ou algorithme ne peut saisir toute la complexité de l'expérience humaine. 

Lam a également souligné comment l'IA peut être une force positive lorsqu’elle est appliquée de manière réflechie, en citant l'exemple d'un partenariat avec l'université d'État du Kansas. Dans le cadre de ce projet, l'IA rationalise l'accès à l'aide psychologique en cas de crise, en orientant rapidement les appelants vers les ressources appropriées afin que l'expertise humaine puisse intervenir là où elle est le plus nécessaire. « L'IA est très utile pour les tâches de base, car elle permet d'atteindre plus rapidement les personnes concernées, qui peuvent alors se concentrer sur le fond », explique Lam. Cette approche est conforme aux recommandations des Nations unies sur l'éthique de l'IA.  

Partage du leadership et responsabilité collective 

Un thème récurrent tout au long de la causerie a été la nécessité d'un leadership partagé et d'une responsabilité collective pour façonner l'avenir numérique. Krause a mis le public au défi de reconnaître que le rythme et l'orientation du développement de l'IA ne sont pas inévitables, mais le résultat de choix faits par une poignée de privilégiés. « Le développement de l'IA ne doit pas nécessairement se faire au rythme que nous connaissons actuellement. C'est un choix... fait par un groupe très restreint de personnes très riches et privilégiées », a-t-elle déclaré, soulignant l'importance de démocratiser non seulement les données, mais aussi la gouvernance et la conception même de la technologie. 

Perspectives d'avenir : des technologies au service du vivre ensemble 

Les panélistes ont convenu que la promesse de l'IA et de l'innovation numérique ne réside pas dans leur nouveauté, mais dans leur capacité à rassembler les individus, à condition qu'elles soient conçues dans un souci d'intention, de transparence et d'équité. Comme l'a dit Lam, « lorsque nous parlons de préparation à la carrière ou de progrès de l'IA ou de la technologie, cela semble être un formidable facteur d'égalité, mais nous devons d'abord penser aux individus »

Pour construire une ère numérique juste, nous devons traiter les données comme un contrat social, rester vigilant.e.s face aux préjugés et donner la priorité aux solutions communautaires. L'avenir de la technologie et de la cohésion sociale en dépend. 

Pour en savoir plus sur ces thèmes, découvrez les travaux de Data & Society sur l'égalité et la justice en matière de données