Droit de l'intelligence artificielle : l'importance d'une régulation juste

Balado
30 novembre 2023

Picture of the Big Thinking Podcast microphone with a headset

Description | À propos de l'invitée | Transcription | Suivez nous

 

Description

Est-ce que ChatGPT, DALL-E et Midjourney vous dit quelque chose? Ces plates-formes sont quelques exemples parmi de nombreux nouveaux logiciels d'intelligence artificielle qui voient le jour actuellement.

Durant ces dernières années, l'IA a été au centre de nombreux débats et discussions, notamment dans le monde académique. Alors que l'IA commence à faire partie de nos vies professionnelles et personnelles, il est important de discuter des enjeux et risques liés à l'explosion de ces technologies et comment et pourquoi les réguler.

Pour cet épisode, Camille Ferrier, vice présidente, Engagement des Membres, Communications et Événements est rejointe par Céline Castets-Renard, professeure à l'Université d'Ottawa.

À propos de l'invitée

Photo de Céline Castets-Renard

 

Céline Castets-Renard est professeure en droit civil à l'Université d'Ottawa et titulaire de la Chaire de recherche sur l'intelligence artificielle responsable à l'échelle mondiale.

Céline Castets-Renard détient une maîtrise de droit des affaires de l'Université Paris 1 Panthéon-Sorbonne et un doctorat de droit de l'Université Paris-Sud.

Ses recherches portent sur le droit et la régulation du numérique dans des domaines variés de droit privé allant de l'impact de la technologie sur les contrats et la responsabilité civile à la propriété intellectuelle, à la protection des données personnelles, au commerce électronique, en passant par les questions éthiques liées à la régulation des voitures autonomes et la cybersécurité.

 

 

Céline Castets-Renard dans les nouvelles

[00:00:00] Camille Ferrier : Bienvenue au balado Voir Grand, où nous abordons les questions les plus importantes et les plus intéressantes de notre époque en compagnie d'éminents chercheurs et chercheuses en sciences humaines. Je m'appelle Camille Ferrier et j'ai le plaisir d'animer cet épisode en tant que vice-présidente à l'engagement des membres, aux communications et aux événements à la Fédération des sciences humaines.

[00:00:26] Si je vous dis ChatGPT, DALL-E et Midjourney, ça vous dit quelque chose? Ces plates-formes sont quelques exemples parmi de nombreux nouveaux logiciels d'intelligence artificielle qui voient le jour actuellement. Ensemble, nous allons explorer la question de savoir quels sont les enjeux et les risques liés à l'explosion de ces technologies et comment et pourquoi les réguler.  

[00:00:48] J'ai le plaisir d'accueillir pour cet épisode une experte en la matière, Céline Castets-Renard, qui est titulaire de la chaire de recherche sur l'intelligence artificielle responsable à l'échelle mondiale et professeure et chercheuse en droit civil à l'université d'Ottawa. Vous êtes prêts? Allez, c'est parti!

[00:01:08] Camille Ferrier : Bonjour Céline et bienvenue au balado Voir Grand, on est vraiment ravis de vous accueillir. Généralement avant de se lancer dans la discussion, on aime bien apprendre à connaître un peu nos invité.e.s. Vous avez fait vos études en France et vous êtes maintenant professeure et chercheuse en droit civil à l'Université d'Ottawa.

[00:01:26] Vous êtes également à la tête d'une Chaire de recherche sur l'intelligence artificielle responsable à l'échelle mondiale. Pouvez-vous nous dire un petit peu comment vous en êtes venue à choisir ce domaine d'expertise, parlez-nous de votre parcours un petit peu.

[00:01:37] Céline Castets-Renard : Merci Camille de me recevoir. Ça me fait très plaisir d'être dans le balado.

[00:01:42] Bonjour à toutes et tous. J'ai effectivement fait mes études en France, donc ma thèse de doctorat en 2001 à Paris sur la propriété intellectuelle et puis ensuite j'ai été recrutée comme professeure à l'Université de Toulouse en 2002 et jusqu'en 2019, jusqu’à arriver à l'Université d'Ottawa.

[00:01:59] Et pendant tout mon parcours en fait, l'étude du droit a suivi l'évolution des technologies. Donc au départ, on parlait de droit de l'informatique et puis après droit de l'Internet, droit du numérique. Et puis maintenant, aujourd'hui bien sûr, on en arrive au droit de l'intelligence artificielle. Alors évidemment, ça ne veut pas forcément dire qu'à chaque fois il faut des lois spécifiques pour chaque nouvelle technologie.

[00:02:21] Mais en tout cas, c'est précisément la question que l'on va se poser à chaque fois qu'une nouvelle technologie arrive de savoir si les lois [...] de droit commun ou les lois ordinaires suffisent, si les lois précédentes qu'on a pu avoir sur les technologies précédentes peuvent s'ajuster. Ou sinon, s'il y a des particularités telles que finalement, il faut adopter des lois nouvelles propres à la nouvelle technologie qui vient d'émerger. Et donc c'est la question qu'on se pose pour l’IA.

[00:02:49] Camille Ferrier : Est-ce qu’il y a quelque chose qui vous a attiré particulièrement dans ce domaine d'études et de recherche?  

[00:02:54] Céline Castets-Renard : Alors quand j'étais aux études, et notamment quand j'ai cherché mon sujet de thèse et quand j'ai cherché ma spécialisation, finalement, je n'avais pas très envie d’aller vers les sujets classiques comme le droit des contrats, le droit de la responsabilité parce qu’il y avait déjà beaucoup de monde, beaucoup de choses avaient été dites.

[00:03:10] Et je n'avais pas l'impression qu'il y avait beaucoup d'évolutions, qu'on arrivait vraiment à poser d'énormes questions nouvelles alors que les technologies en posaient beaucoup.

[00:03:21] Donc, j'ai eu envie plutôt d'aller dans un domaine mouvant, avec tout le temps, tout le temps du questionnement, de la, de la remise en cause. C'est ma première intuition, avoir un champ plutôt neuf pour pouvoir construire et dire des nouvelles choses. Et puis aujourd'hui, je vois aussi l'impact social des technologies, et ça m'intéresse de plus en plus à ajouter à la dimension juridique.

[00:03:46] Camille Ferrier : Vous avez mentionné les droits de l'information, les droits de l'informatique, mais donc l'intelligence artificielle c'est quoi exactement? Est-ce que vous pourriez la définir pour nous?

[00:03:54] Céline Castets-Renard : L'intelligence artificielle reçoit plusieurs définitions.

[00:03:58] Donc je vais en donner une qui est un choix que je fais. Je pense que ce qui caractérise aujourd'hui l'intelligence artificielle, c'est que ce sont des systèmes qui sont capables de faire des actions avec une autonomie en fonction des objectifs qui ont été fixés par l'être humain. Mais de plus en plus, ils sont aussi capables de détecter leurs propres objectifs, finalement, en améliorant leur connaissance de l'environnement et en améliorant leur processus.

[00:04:26] Et ce qui me frappe le plus aujourd'hui, je pense que c'est ce qu'il y a de plus disruptif dans l'intelligence artificielle c'est que désormais, ces systèmes d’IA sont capables d'avoir des fonctions cognitives, ils sont capables de prédire, de faire des recommandations, de prendre des décisions et également de générer du contenu.

[00:04:48] Et on parle alors d’IA générative. Mais c'est vrai que ce sont des fonctions intellectuelles finalement qui vont impacter les métiers plus intellectuels alors que ça fait bien longtemps qu'on a automatisé des chaînes de montage qu'on a déjà de l'automatisation industrielle, voire de l'automatisation aussi de certaines décisions [...] via des logiciels.

[00:05:09] Là, ce qu'on comprend, c'est que cette part d'autonomie va permettre au système d'apprendre de son environnement et d'évoluer avec l'environnement.  

[00:05:17] Camille Ferrier: L'intelligence artificielle générative, c'est quoi exactement?

[00:05:23] Céline Castets-Renard : Générative, ça veut simplement dire que ça génère du contenu, donc ça crée du contenu. Et quand on dit le contenu, ça c'est très très large, on pense bien sûr aux textes et aux modèles de langage comme ChatGPT.

[00:05:34] On pense aux images comme Dall-E, Midjourney, etc. Et on pense aussi à la génération de contenu comme des vidéos, comme de la musique, mais aussi du coding. Donc aujourd'hui on a beaucoup de questions du terrain, des entreprises qui viennent, des informaticiens qui disent bah moi, j'ai récupéré un bout de code à droite ou à gauche.

[00:05:56] Et puis il y a bien sûr des enjeux de propriété intellectuelle ou au contraire […] d’Open Access (note de l’éditeur: accès libre) et de logiciel libre ou en principe on doit laisser libre les codes que l'on a déjà utilisés ou au contraire on a des règles d'appropriation. Donc toutes ces règles-là vont être très difficiles à respecter si on prend des bouts de code à droite à gauche.

[00:06:20] Ou si le code est généré par des logiciels comme ChatGPT, là on ne sait pas vraiment on sait qu'il a pris ça quelque part, surtout sur Getup en particulier qui est une plateforme qui rassemble beaucoup de programmes de codage, mais au mépris des règles applicables à leur réutilisation.

[00:06:41] Camille Ferrier : Vous avez récemment coécrit un article qui est paru dans la revue Option Politique et vous avez dit, donc je cite, « le cadre juridique actuel de l'intelligence artificielle est éparpillé et insuffisant » et qu'il est temps de proposer une loi sur l'intelligence artificielle. Est-ce que vous pourriez nous expliquer pour celles et ceux qui nous écoutent, ce contexte dans lequel nous nous trouvons?

[00:07:04] Ainsi que les enjeux de la récente explosion des technologies d'intelligence artificielle. Et pourquoi, selon vous, c'est important d'avoir une régulation dans ce domaine?  

[00:07:19] Céline Castets-Renard : L'étude du droit de l'informatique, de l'Internet du numérique et des technologies en général, la première question qu’on se pose est de savoir d’abord : qu’est-ce que sont ces technologies, quelles sont les caractéristiques?

[00:07:28] Donc d'où la question précédente et d'identifier des ruptures, des nouveautés par rapport aux technologies précédentes. Donc j'ai mentionné la part d'autonomie et les fonctions cognitives qui font partie de ces caractéristiques de l’IA.

[00:07:42] Donc à partir de là, on se dit [...] qu'est ce qui se passe avec ces systèmes? Alors effectivement, si des systèmes sont utilisés, par exemple pour aider à la prise de décision sur des individus, sur des cas individuels par exemple pour décider d'accorder un prêt ou non, pour décider d'accorder un visa ou non, pour décider de créer du nouveau contenu, comme des images par exemple.

[00:08:05] Et bien évidemment, on va se poser la question à la fois de savoir si ça peut heurter les droits et les garanties que l'on a déjà, est-ce que ça vient perturber l'équilibre social que l'on a déjà, ça c'est la première question. Et s’il y a des nouveaux problèmes, des nouveaux risques, est-ce que les droits que l'on a déjà permettent d'y répondre.

[00:08:22] Donc sur ces deux points, […] l’IA vient nous perturber d'abord sur le premier point le respect des droits que l'on a déjà, on voit avec l’IA générative en particulier, il y a des défis par rapport à la protection de la propriété intellectuelle et par rapport à la protection des données à caractère personnel par exemple.

[00:08:39] Donc on se dit ah ben cette IA peut venir violer nos droits, violer l'équilibre que l'on a déjà, c'est le premier point. Le deuxième point, est-ce que la législation que l'on a déjà est suffisante pour capter les particularités, et je mentionnais la prédiction, je mentionnais le fait d'avoir une part d'évolutivité, d'autonomie.

[00:09:01] On va voir que les principes que l'on peut avoir par exemple de transparence ou des principes d’explicabilité risquent de ne pas être respectés si on utilise un système opaque, qu'on ne comprend pas bien, qui va évoluer par lui-même etc. Du coup ça nous amène à l'étape d'après de se dire visiblement non seulement ça viole les droits qu'on a déjà mais en plus justement les droits sont insuffisants pour capter la particularité de l’IA.

[00:09:28] Et donc ça nous amène à l’étape d'après, à penser une législation, une législation spécifique et parmi les enjeux à considérer, à adresser, il y a beaucoup d'enjeux de, comme je le disais de transparence, fin de manque de transparence, d'opacité, de complexité des systèmes, mais aussi des enjeux liés aux biais, au discrimination, à l'atteinte au droit que l'on souhaite protéger, aux droits fondamentaux notamment, et donc c'est tout le défi auquel on est confronté aujourd'hui dans la nécessité d'adopter une loi spécifique.

[00:10:03] Camille Ferrier : Le Canada a déposé un projet de loi C-27 : en quoi consiste ce projet de loi et que pensez-vous de l'approche du Canada à ce niveau là? Et comment est-ce qu’elle se distingue de celle d’autres pays par exemple?

[00:10:16] Céline Castets-Renard : Alors l'approche du Canada est d'envisager les systèmes d’IA par les risques et par les deux catégories de risques : des risques de préjudice et des risques de biais et de discrimination. Et quand on parle de préjudice, on l'entend assez largement.

[00:10:33] On parle des préjudices économiques, moraux, psychologiques, des pertes, des risques de perte, etc. Ce qui paraît être une approche assez intéressante. Il y a quand même des critiques contre cette approche parce que les risques qui sont ainsi visés sont plutôt des risques individuels, un peu sur le mode de la responsabilité civile ou de la [...] en Common Law.

[00:10:58] Mais ça capte assez mal les risques collectifs, par exemple les risques pour la langue, pour la culture, pour les droits fondamentaux qui peuvent être des risques plus collectifs. Donc ça c'est la première limite. Et puis le renvoi au biais à la discrimination et aux lois de protection contre la discrimination.

[00:11:17] C'est assez intéressant comme démarche, mais […] les risques contre la discrimination ne sont pas les seuls risques d'atteinte aux droits fondamentaux. On peut penser aussi au risque d'atteinte à la liberté d'expression, liberté d'opinion notamment en cas de fausse utilisation, enfin de désinformation, de Deep-Fake ou d'hyper trucage, de manipulation d'information d'opinion.

[00:11:42] Là on voit que ça touche à d'autres droits que la simple, fin que la discrimination. Donc, on considère que c'est peut-être un peu trop étroit cette approche-là, et il y a aussi une autre limite qui est qui est apportée, c'est le fait que on veut viser seulement les systèmes d’IA à impact élevé, à incidence élevée, mais on ne sait pas quel est le seuil.

[00:12:04] Il n'y a pas de définition, il n'y a pas vraiment de critères. Donc ce sont des choses qu'il va falloir préciser. Et justement, la Chambre des communes et les comités sont en train de travailler à entendre des experts et je pense que des précisions vont être apportées par des amendements, par les discussions parlementaires, en tout cas c’est ce que je souhaite.

[00:12:24] Donc ça, c'est pour les points faibles de la réglementation canadienne. Mais il y a aussi des points forts, notamment en comparaison avec le projet de loi européen, parce que pour l'instant, on a parmi les propositions que l'on peut trouver à l'échelle internationale, le Canada et l’Europe sont les premiers à avoir une législation un peu large.

[00:12:45] Il y a déjà des législations un peu plus spécifiques, mais des législations larges, ce sont les premiers. Et donc par rapport à l'Europe, je trouve qu'il y a un atout à l'approche canadienne qui va être de laisser assez ouvert les hypothèses d'évolution des technologies et les hypothèses de cas et les hypothèses de risque.

[00:13:05] Alors que l'Union Européenne va être plus précise, mais ça enferme davantage. On va lister des cas d'études, évidemment là, le risque c'est que la réglementation soit trop vite obsolète. C'est tout l'enjeu en fait de ces nouvelles réglementations sur un nouveau champ en fait du droit, c'est de trouver l'équilibre entre la précision, la sécurité juridique et bien capter les enjeux.

[00:13:27] Tout en ayant bien conscience que la technologie va encore évoluer et que de nouveaux enjeux vont apparaître. Donc il faut une certaine évolutivité et certains parlent d'agilité législative.  

[00:13:39] Camille Ferrier : Au balado Voir Grand, parmi nos auditeurs et auditrices, on a des décideurs et décideuses politiques canadiens. Si vous aviez un message à leur faire passer, donc aujourd'hui qu'est ce qu'on peut faire pour la suite? Où on va à partir de là?

[00:13:50] Céline Castets-Renard : Je vais être honnête sur ma prise de position personnelle parce que tous mes collègues ne vont pas dans le même sens que moi. Beaucoup considèrent que le projet de loi C-27 n'est pas assez précis n'est pas assez bon, parce qu'on renvoie de la réglementation de la régulation plus tard, qui serait prise par l’ISED, donc le ministère de l'innovation de l'économie et donc on se dit ah mais on fait un chèque en blanc au travers de cette loi?

[00:14:18] Rien n'est dit dans la loi, ce n'est pas assez précis, c'est insuffisant. On ne peut pas, on ne peut pas faire cette délégation de pouvoir. Donc C-27 n'est pas la bonne loi, ce n'est pas assez bon. Moi je n'ai pas très envie qu'on mette C-27 de côté parce que si on fait ça, j'ai bien peur qu'on reparte pour un ou deux ans avant d'avoir un autre projet de loi.

[00:14:36] Et ça me paraît tardif. Donc je préfère qu'on travaille avec ce qu'on a déjà et qu'on travaille en session parlementaire, en comité parlementaire, pour améliorer cette loi. Et qu'est-ce qu'on peut faire pour ça? Effectivement, il y a peut-être trop de délégations à la réglementation, à des choses qu'on ne sait pas encore.

[00:14:53] Et je pense que certains détails pourraient être dans la loi et en particulier donner une définition de ce qui est une incidence élevée à partir de laquelle il faut prendre des mesures et des obligations à respecter.

[00:15:04] Je pense que ça, ça devrait être précisé. Donc quel est le niveau? Quel est le seuil à atteindre pour respecter les obligations? Et quelles vont être ces obligations de manière un petit peu plus un petit peu plus précise? Je serais d'avis aussi d'avoir un système de gouvernance et de contrôle un peu plus précisé et plus indépendant.

[00:15:24] Pour l'instant il y a un commissaire à l'IA et aux données qui est prévu mais qui est rattaché au ministère de l'innovation, donc rattaché à l’ISED, donc est-ce qu'il y aura assez de pouvoir et d'indépendance? On a des doutes. Donc on voudrait aller plus loin avec ça. Et j'ajouterai aussi qu'on devrait étendre les notions de préjudice à des préjudices globaux et à des préjudices aux droits fondamentaux de manière plus générale.

[00:15:49] Et j'ajouterai que se positionner en considérant que certains usages de l’IA sont inacceptables dans notre société démocratique et eu égard aux valeurs du Canada, ça me paraîtrait aussi très important pour envoyer des signaux clairs aux concepteurs d'IA et à ce qui n'est pas acceptable socialement aujourd'hui, je pense que c'est une réflexion qu'on doit avoir.

[00:16:09] Camille Ferrier : Vous avez dit que vous mettez le projet de loi, si on mettait le projet de loi C-27 de côté, il faudrait un ou deux ans avant d'avoir un nouveau projet. Donc j'ai le sentiment quand vous dites ça, que le temps presse. Est-ce que vous diriez qu'on est dans une situation d'urgence? Est-ce qu'il faut vraiment aller vite à ce niveau-là, au niveau de la régulation?

[00:16:28] Céline Castets-Renard : Là aussi il y a un débat, certains disent on ne sait pas, on ne sait pas suffisamment ce qui se passe, donc c'est trop tôt, il ne faut pas réglementer trop vite, alors il faut juste des principes généraux, ça suffira bien, il faut juste de des bonnes pratiques, de l'éthique, ça suffit. On n'a pas besoin de réglementation à ce stade, c'est trop tôt.

[00:16:48] Généralement, ceux qui disent ça ne sont peut-être pas ceux qui veulent se voir réglementer, voilà. Moi je pense qu'il est temps de poser un minimum un socle, un socle minimum et on s'entend que la technologie va évoluer, la législation devra évoluer et je pense que c'est plus la question de savoir « » « comment on fait? » que « est-ce qu'il faut le faire? »

[00:17:06] Et je pense qu'il faut effectivement être assez assez souple, flexible, pouvoir faire évoluer la législation et ne pas avoir de certitude aujourd'hui parce qu'on n'en a pas. Et donc avoir les moyens de suivre ces évolutions technologiques et donc que la loi soit pas trop en décalage. Mais je pense qu'il faut déjà poser un cadre aujourd'hui et j'ajouterai qu'il y a aussi un double discours parfois.

[00:17:32] Donc là, je vous ai cité deux camps, mais en fait, on a parfois un camp qui est de chaque côté. Par exemple, on entend beaucoup les gens de la Silicon Valley, OpenAI, Sam Altman qui est le CEO d’OpenAI qui dit d'un côté « il faut nous réglementer, c'est dangereux ce qu'on fait, on a des risques existentiels, etc. » c'est ce qu'on voit dans la presse.

[00:17:53] Et puis par derrière, on a du gros lobbying auprès des législateurs dans l'Union Européenne, il y a un gros lobbying qui se fait en ce moment pour dire « ah mais attention, vous allez casser l'innovation, vous allez casser les entreprises européennes. »  Bon, c'est toujours les mêmes arguments, le même discours.

[00:18:14] Mais là, ce qui est intéressant, c'est qu'il est double. Il y a un discours officiel devant tout le monde pour dire « mais moi je suis gentil, je veux bien me faire réguler » parce que c'est aussi pour dire « moi j'ai une super technologie, je suis hyper performant, alors oui, il faut faire attention, etc. » et d'un autre côté « bon ne cassez pas mon business modèle, et attention à ne pas trop me contraindre quand même quoi. »

[00:18:32] Camille Ferrier : Ouais ça ne semble pas évident. Vous avez mentionné une ou deux fois des situations inacceptables qu'il faut particulièrement réguler. Vous pouvez nous donner un exemple selon vous?  

[00:18:44] Céline Castets-Renard : Je vais m'appuyer sur ce qu’envisage l'Europe […], c'est toujours pour avoir un début de conversation.

[00:18:50] Et il y aurait sûrement d'autres usages inacceptables. Il y en a d'autres qui sont inacceptables, qui auraient dû être dans la liste. Mais c'est une liste exhaustive, donc on peut se fier sur cette liste. On peut commencer avec cette liste, on va dire. Et donc, parmi les usages considérés comme inacceptables, il y a l'utilisation de tout ce qui est manipulation subliminale.

[00:19:09] Pour manipuler les opinions et en particulier les personnes vulnérables comme les enfants par exemple les personnes âgées ou des personnes avec des déficits mentaux. Là on veut éviter en fait de manipuler les personnes à leur insu et de leur faire faire des choses qu'elles n'auraient pas faites et qui leur seraient préjudiciables.

[00:19:28] Donc c'est ce genre d'actions auxquelles on pense. Je ne vois pas encore que l'Europe et le Canada s'alignent vers ça, mais bon, pourquoi pas le dire, après tout. Et j'ajouterais un autre exemple qui est très intéressant parce que pour l'instant, il n'y a pas de compromis sur le texte européen qui n'est pas encore adopté, il y a encore beaucoup de négociations, de débats au sein des institutions européennes.

[00:19:50] C'est la reconnaissance faciale dans les espaces publics utilisés par les forces de police. Et là, on a des versions complètement différentes entre le Parlement Européen, le Conseil et la Commission Européenne.

[00:20:02] Et c'est très intéressant parce que le Conseil défend les États membres et évidemment, les États veulent de la reconnaissance faciale pour leur police. Donc eux sont plutôt là à vouloir étendre les exceptions par rapport au principe qui est l'interdiction de la reconnaissance faciale à grande échelle dans les espaces publics.

[00:20:21] Mais ils sont en train de dire « ah oui, mais il y a plein - il faut quand même des exceptions et puis essayer de vouloir les étendre. » Et le Parlement Européen, qui lui voudrait interdire la reconnaissance faciale dans les espaces publics par les forces de police, et plus encore voudrait interdire la reconnaissance faciale.

[00:20:37] Alors c'est un bras de fer hein? Et le parlement européen est directement élu par les citoyens, donc c'est plus c'est pour satisfaire davantage les citoyens. Je ne sais pas ce qui va sortir du Trilogue, c'est la réunion de ces trois institutions. La dernière réunion a lieu le 6 décembre.

[00:20:53] On va voir si on aboutit à un compromis ou pas, mais ça fait partie des sujets les plus controversés et sur lesquels on est le plus en désaccord dans ce projet européen.  

[00:21:04] Camille Ferrier : Vous avez parlé de perturbations des acquis sociaux. Moi là, je suis curieuse, quelles sont les répercussions possibles sur notre quotidien, donc dans la sphère personnelle?

[00:21:15] Vous, moi, ma famille, mes amis, dans notre travail est-ce qu'on doit s'inquiéter de quelque chose, en particulier dans un futur très proche : violation de notre vie privée, de nos données personnelles, de l'accès à l'information. Est-ce que vous pouvez parler de ça au niveau individuel?  

[00:21:30] Céline Castets-Renard : À partir du moment où l’IA se répand dans tous les pans de la vie sociale et économique, je pense qu'il faut s'en inquiéter ou en tout cas, il faut être vigilant.

[00:21:37] Et partir du principe que de plus en plus de systèmes sont automatisés et intègrent plus ou moins de l’IA. Mais à la limite, j'ai envie de dire que même si ça n'intègre pas d’IA, selon la façon dont les systèmes sont conçus, il y a quand même un certain nombre de risques pour la vie privée, les données, le respect des données personnelles et pour des risques de biais et de discrimination, parce que très souvent ces systèmes sont entrainés sur des jeux de données qui ne sont pas forcément tout à fait représentatif de l’ensemble de la société.

[00:22:07] On voit qu'il y a des biais de genre, de race, des biais parfois socio-économiques donc n'importe qui peut être finalement impacté par un système d’IA qui déciderait mal ou qui - enfin par un système automatisé disons - qui déciderait mal ou qui, finalement, prendrait une mauvaise décision sur la base d’un mauvais entraînement ou sur la base d’un entraînement biaisé.

[00:22:29] On doit s'en inquiéter, je pense, par rapport à ces risques de discrimination. Les risques d'atteinte à la vie privée et des données personnelles, il y a quand même toujours la question de se dire est-ce qu'on capte beaucoup d'informations sur moi, quelle quantité et est-ce que ça respecte encore des principes de nécessité, de proportionnalité, de finalité qui sont des principes clés dans l'utilisation des données personnelles et très souvent dans ces systèmes qui sont très gourmands en données tant pour l'entraînement que pour le déploiement, ben on voit bien que c’est tout à fait aux antipodes de ces principes-là.

[00:23:04] Quand on pense au modèle de langage qui s'entraîne avec des milliards de données de paramètres, ça veut dire qu'il faut capter énormément. Donc on n'est pas du tout dans la limitation, la finalité etc., et dans le contrôle de ces législations essayaient de mettre en œuvre, je parle déjà au passé presque.

[00:23:24] En tout cas ont vocation à mettre en œuvre un certain contrôle des individus par rapport à l'utilisation de leurs données. Là, plus ça va, moins on a des garanties, avec le déploiement de l’IA. Donc il faut vraiment coupler ça avec le respect des législations sur la protection des données personnelles.

[00:23:40] Et puis au travail aussi, on voit que l’IA se déploie de plus en plus au travail. Alors sans forcément aller vers les risques et les enjeux qui existent hein, mais les enjeux de remplacement, même sans aller jusque-là, il va falloir commencer aussi à interagir avec des machines intégrant plus ou moins d’IA.

[00:23:57] Et à comprendre ce que la machine est capable de faire, mais surtout de ne pas faire et à comprendre ce sur quoi on peut compter et ce sur quoi on ne peut pas compter, quelle confiance on peut attribuer ou pas. Et le contrôle humain est important, mais à condition de comprendre et de pouvoir vraiment contrôler.

[00:24:12] Donc ça c'est un enjeu important, ce n'est pas juste « ah oui, il y a un humain qui a regardé, il a coché la case et c'est très bien » sans comprendre vraiment ce que le système avait fait, sans comprendre les conséquences. Ça ne marche pas, il faut vraiment aller plus loin et qu'on soit vraiment en contrôle intellectuel de ce qui se passe, même si on ne comprend pas forcément pourquoi il a pris la décision.

[00:24:32] Mais au moins qu'on soit en capacité de revoir la décision, de la contester et avoir suffisamment d'informations pour dire « bah cette décision pour cette personne-là, elle n'est pas normale donc je vais la revoir, » ça c'est important. L’IA concerne tout le monde, il ne faut pas penser que c'est un sujet d'expert, il faut avoir des années de compétences techniques en science des données, etc.

[00:24:56] Ça c'est pour la partie création/conception de l'IA. L'enjeu social, sociétal aujourd'hui, c'est que l’IA va s'appliquer à tout le monde sans qu'on en ait toujours conscience. Donc il y a aussi la question de la transparence, savoir si un système d’IA a été utilisé et donc je pense qu'il faut réclamer plus de connaissances, plus de compréhension, plus de transparence sur l'utilisation de l’IA.

[00:25:18] Et ça, tout le monde peut le demander. Et on ne demande pas d'avoir des explications techniques qu'on ne comprendrait pas, ce qu'on veut, c'est de savoir pourquoi on utilise l’IA, pourquoi c'est plus performant que quand ce sont des humains qui le font, donc en quoi c'est plus intéressant d'avoir de l’IA.

[00:25:34] Et en quoi on a pris des mesures pour minimiser un certain nombre de risques? Et quelle compréhension on peut avoir de ça, quel recours individuel on peut éventuellement avoir ou en tout cas quelles connaissances individuelles on peut avoir pour contester éventuellement une décision. Ce sont des enjeux sociaux globaux, dans le sens où ça concerne vraiment tout le monde et tout le monde doit s'en emparer.

[00:25:56] Il ne faut pas laisser, la narration de la Silicon Valley nous parler des risques existentiels, des risques très très graves, en disant à la fois « oh la la, c'est très très dangereux ce qu'on a fait » mais en même temps, « ne vous inquiétez pas, on s'en occupe » non, non, ne pas laisser ces experts parler entre eux, faire des tribunes, c'est très bien, j'en fais, j'en signe, mais c'est le sujet de tout le monde.

[00:26:19] Il ne faut pas hésiter à aller s'informer, à venir nous interroger. Moi je réponds à toutes les demandes […] des médias, parce que justement, il faut en parler à tout le monde et que tout le monde s'empare du sujet.

[00:26:29] Camille Ferrier : Ok merci beaucoup Céline, c'est vraiment un travail important que vous faites et […] c'était vraiment un honneur pour nous de vous accueillir au balado Voir Grand, merci encore.  

[00:26:42] Céline Castets-Renard : Mais l'honneur est le mien, le plaisir était le mien. Merci beaucoup pour votre accueil.

[00:26:47] Camille Ferrier : Merci d’avoir écouté le balado Voir Grand et merci à notre invitée Céline Castets-Renard, professeure et chercheuse en droit civil à l’Université d’Ottawa. Je remercie également nos amis et partenaires au Conseil de recherches en sciences humaines et la société de production CitedMedia, sans qui ce balado ne serait possible.

[00:27:06] Vous pouvez retrouver tous les épisodes du balado Voir Grand sur Spotify, Apple Podcast, Google Podcast ou sur votre plateforme de balado favorite. Faites-nous savoir ce que vous avez pensé de cet épisode en connectant avec nous sur les réseaux sociaux. A la prochaine! 

Icon of Apple Podcast

Apple Podcast

Icon of Google Podcast

Google Podcast

amazon music logo

Amazon Music

Podcast addict logo

Podcast Addict

iHeartRadio logo

iHeartRadio