Devons-nous vraiment nous inquiéter du ChatGPT?

Balado
15 novembre 2022

Picture of the Big Thinking Podcast microphone with a headset

 

 

Description | À propos de l'invitée | Transcription | Suivez nous

 

Description

L'intelligence artificielle est en plein essor, et ChatGPT est l'un des exemples les plus marquants d'une nouvelle technologie qui change nos vies. Mais que savons-nous vraiment sur le ChatGPT et comment affecte-t-il l'enseignement supérieur et la recherche? 

Miller est rejoins par Lai-Tze Fan, professeure adjointe de technologie et de changement social au département de sociologie et d'études juridiques de l'Université de Waterloo.

À propos de l'invitée

Headshot of Lai-Tze Fan

Lai-Tze Fan est professeure adjointe de technologie et de changement social au département de sociologie et d'études juridiques de l'Université de Waterloo.

Elle est titulaire d'une maîtrise en anglais et en études cinématographiques de l'Université Wilfrid Laurier et d'un doctorat en communication et culture de l'Université York et de la Toronto Metropolitan University.

Les recherches et l'enseignement de Lai-Tze portent sur la narration interactive et numérique, les projets de recherche-création et de création critique, les préjugés systémiques dans la conception technologique, l'archéologie des médias, l'Anthropocène et la durabilité, la culture numérique et "intelligente", les études sur les infrastructures critiques et les humanités numériques.

[00:00:00] Gabriel Miller : Bienvenue sur le balado Voir Grand, où nous nous entretenons avec d'éminents chercheurs au sujet de leurs travaux sur certaines des questions les plus importantes et les plus intéressantes de notre époque. Je m'appelle Gabriel Miller et je suis le président et chef de la direction de la Fédération des sciences humaines.

[00:00:22] L'intelligence artificielle est en plein essor et le ChatGPT est l'un des exemples les plus marquants d'une nouvelle technologie qui change nos vies, mais que savons-nous vraiment du ChatGPT et comment affecte-t-il l'enseignement supérieur et la recherche? Aujourd'hui, je suis rejoins par Lai-Tze Fan, professeure adjointe de technologie et de changement social au département de sociologie et d'études juridiques de l'Université de Waterloo.

[00:00:51] Parlons un peu du moment que nous vivons actuellement, et rien n'est plus actuel que le ChatGPT. Commençons par les bases, car même si tout le monde semble lire des articles sur le sujet sur Internet et dans les journaux, nous avons probablement des niveaux de compréhension différents de ce dont nous parlons ici.

[00:01:17] Cette année, l'application de l'intelligence artificielle connue sous le nom de ChatGPT a connu un développement important. Pouvez-vous nous décrire brièvement de quoi il s'agit? 

[00:01:31] Lai-Tze Fan : Bien sûr. ChatGPT est un grand modèle linguistique. Il s'agit d'un système d'IA qui a été entraîné sur un gigantesque corpus de milliards de mots.

[00:01:43] Les mots sont pondérés différemment, de sorte que certains d'entre eux ont une signification spécifique que les concepteurs, les scientifiques des données ont décidé de mettre en avant dans la construction des phrases. Je devrais peut-être commencer par dire que ChatGPT est possible grâce à une branche de l'informatique appelée traitement du langage naturel, qui permet aux ordinateurs de reconnaître des modèles dans le langage et de les reproduire avec la même syntaxe, la même grammaire.

[00:02:12] C'est la raison pour laquelle ChatGPT ou Bing, par exemple, et les autres grands modèles linguistiques qui voient le jour, sont capables de reproduire si bien le langage humain, parce qu'ils identifient la formule, les formules du langage, et qu'ils les reproduisent.

[00:02:29] En ce sens, ce sont des miroirs pour la langue, mais la façon dont ils sont formés est tout aussi intéressante. La façon dont ils sont formés et ce avec quoi ils sont formés, les corpus ou les, ou ce que l'on pourrait également appeler les ensembles de données d'une langue qui sont utilisés pour former un système comme ChatGPT, tout d'abord, ils sont secrets.

[00:02:50] La société Open AI ne dévoile pas ses méthodes d'apprentissage. Il s'agit bien sûr des algorithmes, mais aussi de ce qu'ils ont inclus dans ces corpus. Il y a eu suffisamment de recherches pour montrer que certains corpus seront inclus, par exemple, Wikipedia est définitivement là comme modèle d'entraînement et quelque chose comme Wikipedia, qui est une source ou une ressource d'information assez fiable, sera pondéré plus lourdement que, disons, hum, des recherches et des résultats aléatoires sur Internet.

[00:03:27] Je dois également préciser que le GPT quatre est également formé pour intégrer la vision par ordinateur, qui est une forme d'informatique dans laquelle les ordinateurs sont capables de reconnaître des objets et de vous dire ce qui se passe dans un objet.

[00:03:41] Gabriel Miller : Oh Seigneur. 

[00:03:43] Lai-Tze Fan : Oui.

[00:03:45] Gabriel Miller : D'accord, avant de passer à la suite, parce que beaucoup de gens ont du mal à digérer ce qui s'est déjà passé. Je voudrais m'assurer que j'ai bien compris, d'après ce que vous avez dit, qu'une partie de la raison, ou peut-être la raison pour laquelle cela a frappé les gens comme étant si différent de ce que nous avons rencontré auparavant, c'est ce mariage d'une capacité de recherche et d'accès à des quantités massives de données, mais aussi de réponse et de création dans le langage.

[00:04:18] Pour nous répondre directement lorsque nous posons des questions ou pour créer des sortes d'histoires, de récits ou de résumés d'informations d'une manière que Google, bien qu'il puisse rechercher toutes sortes d'informations pour nous, ne pourrait jamais communiquer ou créer dans une forme de langage de cette manière, est-ce juste?

[00:04:39] Lai-Tze Fan : Je pense qu'en termes de capacité à évaluer la pertinence des informations, il est très similaire à Google, mais la différence réside dans la représentation de la manière dont cela est fait. Comme vous l'avez dit, il prend la forme d'un discours, par opposition à des résultats de recherche hiérarchisés. La première page de résultats, par exemple.

[00:05:01] C'est là que se situe l'intérêt, je suppose, d'un outil comme ChatGPT, car il peut communiquer d'une manière qui ressemble à un langage significatif, mais qui est souvent considéré à tort comme un contenu significatif. Ce n'est pas nécessairement significatif. 

[00:05:17] Gabriel Miller : Il semble donc qu'une fois que le monde a vu ChatGPT émerger il y a quelques mois, la plupart d'entre nous ont joué à une sorte de jeu du type "à quel point dois-je être paniqué?"

[00:05:30] Je n'ai pas encore décidé personnellement à quel point je serai paniqué. J'ai trouvé que le fait de vous parler et de vous écouter me rassurait quelque peu, mais je veux m'assurer que c'est basé sur une compréhension réelle. On dirait que vous dites que les gens ne devraient pas faire l'erreur de croire que cette chose est sensible, qu'elle va atteindre, ou qu'elle est sur le point d'atteindre [...]

[00:05:51] Une sorte de conscience de soi et une capacité à se forger des motivations et, je suppose, à prendre des décisions fondées sur ces motivations. Est-ce que c'est une évaluation juste de la façon dont vous voyez les choses et de ce que les faits nous révèlent? 

[00:06:04] Lai-Tze Fan : Absolument, et je pense qu'une façon de décrire cela est d'expliquer la différence entre l'IA que nous avons aujourd'hui et l'IA que nous pourrions décrire comme potentiellement sensible, c'est-à-dire comme passant potentiellement un test de Turing.

[00:06:16] Par exemple, le test, l'expérience de pensée d'Alan Turing dans laquelle un ordinateur peut tromper un humain en lui faisant croire qu'il est en fait humain. Pour ceux qui pensent que ChatGPT est humanesque, on pourrait dire qu'il y a un potentiel de réussite. Mais permettez-moi de revenir en arrière et de dire que le type d'intelligence artificielle auquel nous avons affaire aujourd'hui, toute l'intelligence artificielle existante est décrite comme une intelligence artificielle étroite.

[00:06:43] Il est là pour accomplir une tâche. Il a des objectifs spécifiques, tout comme les assistants d'intelligence artificielle que je regarde tout le temps, comme Siri et Alexa, qui exécutent des tâches pour faire avancer les choses. ChatGPT en est une version beaucoup plus sophistiquée. Vous posez des questions, il vous donne les réponses, mais ce n'est pas le genre d'IA que l'on voit, par exemple, dans la science-fiction, que l'on appelle l'intelligence générale artificielle.

[00:07:09] Elle n'existe pas encore. Nous devrions peut-être souligner que des entreprises comme OpenAI ne mâchent pas leurs mots pour dire qu'elles aimeraient participer à sa réalisation. C'est intéressant. Surtout si, en raison du pouvoir potentiel, une entreprise comme celle-là est autorisée à le faire. Et pour moi, cela entre dans les questions de réglementation et de ce que nous, quel type de potentiel nous, quel type de possibilités nous devrions permettre ou non aux entreprises d'avoir.

[00:07:39] À titre d'exemple, et je ne suis pas le premier à le dire, nous ne laissons pas les compagnies pétrolières s'autoréguler. Il est donc un peu étrange que nous permettions aux entreprises technologiques de prendre de nombreuses décisions sans intervenir pour dire oui, mais au-delà, pas au-delà des paramètres X ou Y. Je pense que c'est en partie dû au fait que la gouvernance et la législation ne peuvent pas rattraper la vitesse à laquelle les choses évoluent, de sorte que les choses se produisent très rapidement, en particulier avec l'intérêt accru des investisseurs. Je pense que c'est en partie dû au fait que la gouvernance et la législation ne peuvent pas rattraper la vitesse à laquelle les choses évoluent, donc les choses se font très rapidement, surtout avec l'intérêt croissant des investisseurs.

[00:08:13] Gabriel Miller : Y a-t-il dans cette technologie des potentialités qui vous enthousiasment ou que vous estimez pouvoir exploiter à des fins constructives? 

[00:08:23] Lai-Tze Fan : Oui, je pense qu'il faudra beaucoup d'ajustements et que la rapidité avec laquelle les gens seront prêts à s'adapter posera problème. Je ne pense pas qu'il y ait [...].

[00:08:36] Je ne pense pas que tout le monde sera d'accord avec les résultats constructifs potentiels de ce système d'IA ou de bien d'autres systèmes d'IA. Lorsque nous parlons de systèmes automatisés en particulier, beaucoup d'IA sont utilisées dans la vie de tous les jours. Toutes ne sont pas au même niveau d'intelligence, mais les caisses, les caisses automatiques, les aspirateurs robots, les assistants vocaux qui sont sur nos appareils personnels et dans nos maisons, ce sont toutes des formes d'IA dont nous dépendons de plus en plus.

[00:09:07] Et je dirais que les gens pourraient avoir une certaine résistance lorsqu'ils commencent à envisager, à remplacer certains types d'emplois. En ce qui concerne les façons constructives d'utiliser l'IA, en particulier quelque chose comme ChatGPT, nous pourrions la considérer comme un collaborateur potentiel. Un article que j'ai présenté en janvier, que j'ai "coécrit", entre guillemets, avec ChatGPT en ce sens que j'y ai intégré des parties de mon article et certaines de mes réflexions...

[00:09:41] Il m'a donné des informations en retour et nous avons fait échanges. Parfois, j'ai demandé des informations sur les artistes, y compris sur les œuvres pour lesquelles ils étaient connus. Je considère cela comme potentiellement constructif, surtout parce que nous n'allons pas nous débarrasser de ces systèmes d'IA, ChatGPT ne va nulle part.

[00:09:57] Et si je ne prends pas en compte et ne m'adapte pas à la façon dont cela change la façon dont nous pensons à l'information et à la représentation de l'information et à sa provenance, y compris les sources qui sont valides ou dignes de confiance, alors je pense que nous commettons potentiellement une erreur en ce qui concerne la façon dont les gens s'adapteront, même si ce n'est pas de façon institutionnelle ou formelle.

[00:10:24] Nos attentes changeront. Donc, à cet égard, ne pas tenir compte des façons dont cela peut avoir un impact sur l'intérêt. Par exemple, l'industrie du travail ou même l'évaluation des programmes d'études permet d'utiliser ces éléments contre nous, en particulier lorsqu'ils évoluent. Mon objectif, je suppose, en collaborant, était de montrer que peut-être de la même manière qu'après l'invention de la photographie.

[00:10:51] Les peintres ont dû repenser ce qu'était la peinture en se disant que ce n'était peut-être plus du réalisme, parce que la photographie semble le faire très bien. Cela ne veut pas dire que tout le monde a cessé d'être un peintre réaliste, mais il est peut-être temps d'explorer quelque chose comme le cubisme. Voir ce que l'on peut faire d'autre avec la peinture en elle-même.

[00:11:08] Je sais que des questions ont été posées, par exemple, sur l'avenir de la dissertation, de la dissertation académique, de la dissertation universitaire. Je ne suggère pas que tout le monde s'adapte et intègre ChatGPT, mais que l'on comprenne que les conditions vont changer à mesure que nous concevons l'information et la connaissance différemment. C'est ce que j'ai envie d'embrasser avec un peu d'humour.

[00:11:32] C'était peut-être un peu trop à l'époque, mais mon propos n'est pas de dire que nous écrivons une meilleure dissertation. Moi et ChatGPT. Il s'agit de dire que nous avons la possibilité de repenser ce que fait un essai ou ce qu'il est, en particulier maintenant, à ce moment précis. Qu'est-ce que cela signifie aujourd'hui d'écrire un essai? Cela ne veut pas dire que je l'ai fait de la bonne manière, c'est juste pour montrer que c'est un potentiel et pour moi, comme cette conversation est constructive, je n'ai pas peur de cette conversation.

[00:12:02] Oui, je n'essayais pas de me moquer de qui que ce soit, mais plutôt de me moquer de moi-même en terminant mon article par une diapositive où je demande à ChatGPT, qui est Lai-Tze Fan - moi - et ChatGPT répond, je ne sais pas. Je ne sais pas qui c'est. Cela ne semble pas être une personne très importante et je l'utilise comme un moyen de montrer que ChatGPT n'est pas à la traîne.

[00:12:23] Et aussi, non pas que je ne prenne pas cela au sérieux, mais je suis conscient de ma relation permanente et dynamique avec ces technologies qui continuent à m'aider à naviguer dans mes propres questions de recherche, mes recherches, mes questions sur la façon dont nous pensons et ce que nous allons faire avec tous ces outils que nous fabriquons.

[00:12:41] Gabriel Miller : Oui, et je pense qu'il y a des questions qui se posent à des moments de l'histoire où la technologie change l'identité des gens, leur rôle, ce qu'ils font et comment ils doivent le faire. Mon sentiment sur les raisons pour lesquelles celle-ci a résonné comme elle l'a fait, c'est que, au moins dans mon cas, j'ai l'impression qu'elle touche à mon monde d'une manière que beaucoup d'autres avancées n'ont peut-être pas touchée.

[00:13:11] La chaîne de montage a été complètement remodelée par l'automatisation et la robotisation. Mais dans de nombreux cas, ce sont des emplois de cols bleus qui ont été déplacés, et maintenant nous voyons des gens, qu'ils soient cols blancs ou employés de bureau, des gens qui pensaient probablement d'une certaine manière qu'ils étaient hors de portée, ou certainement hors de portée dans ce laps de temps, se dire soudain, wow, qu'est-ce que cela pourrait signifier pour moi?

[00:13:45] Qu'est-ce que cela pourrait signifier pour mes enfants? J'aimerais savoir si vous avez eu l'occasion de parler de ChatGPT avec des étudiants? Et si c'est le cas, quel est le sentiment des jeunes? Est-ce qu'ils réagissent de manière anxieuse et inquiète, ou est-ce qu'ils prennent les choses plus au sérieux? 

[00:14:04] Lai-Tze Fan : Excellente question. Je pense que cela dépend de leurs attentes et des relations existantes. Je dirais qu'il y a un peu plus de préoccupations explicites de la part des étudiants en humanité pour qui une grande partie de ce que fait ChatGPT semble ressembler au travail qu'ils font ou veulent faire, y compris l'écriture, le journalisme, l'érudition, l'art, même.

[00:14:31] Comme les gens des beaux-arts, je sais qu'il y a, qu'il y a eu un gros problème pour les artistes, pas ChatGPT, mais Midjourney et DALL-E en tant que systèmes d'IA qui peuvent, et aussi Lensa, je pense que c'est l'autre. Ceux qui peuvent reproduire des styles artistiques. C'est un gros problème pour les droits d'auteur et l'automatisation de ce type de travail suscite des inquiétudes dans tous les domaines.

[00:14:53] Si ChatGPT produit des dissertations de niveau B, ou s'il produit des programmes de base fonctionnels pour le codage et les projets de codage, alors pourquoi ne pas donner ces bases aux étudiants et leur demander, par exemple, avec la dissertation, ok, c'est un B, transformez-le en un A plus, ce que certains, ce que ChatGPT ne peut pas faire.

[00:15:22] On ne peut pas lui demander d'améliorer son propre modèle, sauf dans une certaine mesure. Il n'a pas la variation, le style et les méthodes rhétoriques qu'un humain peut avoir et il n'a pas, potentiellement, la [...], la capacité de faire ressentir quelque chose à quelqu'un lorsqu'il lit plutôt que de simplement transmettre des informations.

[00:15:42] Et avec le code, c'est un bon point de départ, mais si je devais enseigner le codage créatif comme je le fais, peut-être que je dirais simplement de le personnaliser. C'est juste le modèle de base que je mentionnais avec les sites web que j'avais l'habitude de construire avec mes amis au cours de mes études universitaires, ou pardon, au cours de mes études secondaires, que nous personnalisons simplement pour nous-mêmes.

[00:16:00] Nous prenons le code de base et nous nous demandons comment faire pour qu'il me ressemble davantage. Et c'est très bien que j'aie la base, mais c'est souvent comme ça que l'apprentissage se fait. Je prends un modèle et je l'améliore avec ma signature, un cachet plus humaniste qui ressemble à quelque chose qu'un humain a écrit. Je suppose qu'il y a d'autres raisons de se demander si quelque chose passe ou non le test de Turing, mais au-delà de la salle de classe, je pense que les étudiants sont concernés.

[00:16:29] J'essaie de ne pas encourager la pensée déterministe et je veux qu'ils sachent qu'il y a toujours un rôle pour leur potentiel de pensée critique, qui ne sera pas exposé dans ChatGPT, y compris la pensée critique sur les outils eux-mêmes à OpenAI pour prendre toutes ces décisions. 

[00:16:50] Gabriel Miller : Parlons donc de la nature et de la conception de notre technologie et des outils que nous utilisons.

[00:16:57] Vous avez dit que ces outils d'intelligence artificielle finissent par être des miroirs de nous-mêmes, et je suis vraiment intéressé par l'idée que la technologie reflète les personnes qui la conçoivent, et qu'elle reproduira leurs préjugés. Elle reflétera leurs priorités, leur vision du monde. C'est une question que vous avez examinée, pas seulement dans le contexte actuel, et je voulais commencer par vous demander ce qu'est cette notion de design genré. 

[00:17:32] Lai-Tze Fan : Le design genré est la conception délibérée non seulement de produits technologiques, mais aussi de produits culturels, qui vise à modeler l'objet sur des rôles, des sujets, des corps ou des formes de travail traditionnellement genrés. Vous avez mentionné, oui, qu'il s'agit d'un miroir.

[00:17:55] Si vous me permettez de revenir à la question plus générale de toutes ces différentes formes de design qui modèlent et reflètent notre société. Vous avez également mentionné la différence entre les emplois de cols bleus, représentant des emplois de cols bleus, et en tant que travail essentiel automatisé par rapport aux emplois de cols blancs. Je voudrais juste souligner que vous, nous vivons avec des caisses automatiques et des robots d'intelligence artificielle ou des aspirateurs et des assistants d'intelligence artificielle. 

[00:18:24] C'est une chose que j'ai apprise avec Jentery Sayers, un professeur de l'Université de Victoria, il m'a également fait remarquer que le travail, le type de travail est ce qui importe ici lorsque nous commençons à exprimer notre technophobie ou nos angoisses techno, parce que ce n'est pas que nous nous en souciions, nous ne semblions pas nous en préoccuper lorsque les emplois de cols bleus étaient automatisés et remplacés.

[00:18:48] Nous sommes proverbiaux, nous ne voulons pas généraliser pour tout le monde. Ce n'est que lorsque des emplois comme le journalisme ou des emplois de cols blancs ont commencé à être menacés d'être remplacés par ces formes plus sophistiquées d'IA que nous avons commencé à nous interroger, et à plus grande échelle, en particulier dans les médias, nous avons commencé à nous demander si nous n'étions pas allés trop loin ou ce que trop loin pouvait signifier.

[00:19:11] Mais ce n'est pas le cas. S'il s'agit d'emplois que nous considérons, entre guillemets, comme "inférieurs à notre niveau de rémunération". Pour moi, c'est un miroir des modèles d'exploitation qui sont déjà la logique culturelle, le fondement du technocapitalisme. Je m'inspire ici d'une autre Canadienne, Sarah Sharma, de l'université de Toronto, qui a beaucoup écrit sur ce sujet en ce qui concerne le genre.

[00:19:34] Pour ma part, en ce qui concerne le genre, je suis très préoccupée par la façon dont une longue histoire d'exploitation du travail des femmes s'est poursuivie dans l'abstraction de ce travail et dans son exécution avec différentes machines. 

[00:19:49] Gabriel Miller : J'aimerais que vous me parliez d'un exemple qui vous a vraiment marqué. 

[00:19:53] Lai-Tze Fan : Principalement l'assistance de l'IA comme Alexa d'Amazon, Siri d'Apple, c'est la plus évidente pour moi.

[00:20:02] Gabriel Miller : Jusqu'aux noms et aux voix. 

[00:20:05] Lai-Tze Fan : En ce qui concerne Alexa, je pense qu'il s'agit de la bibliothèque d'Alexandrie, la bibliothèque de toutes les connaissances. Et Siri signifie une femme qui vous mènera à la victoire en norrois. Certains d'entre eux ne sont pas explicitement genrés dans leur nom, comme Google Assistant, etc.

[00:20:22] Ou l'esthétique ou même le discours comme la diction, le choix des mots, la façon dont ils réagissent à certaines choses. Et certaines des recherches que j'ai menées avec Alexa, par exemple, si vous et certains utilisateurs avez utilisé une sorte de langage de flirt, à la limite pour certaines personnes dans certaines expériences du harcèlement sexuel verbal, les réponses sont souvent beaucoup plus sexuées d'une certaine manière.

[00:20:47] Siri semble penser, et j'utiliserai ce pronom délibérément, "elle-même", ou Alexa semble penser "elle-même" comme une femme, même si Apple et Amazon ne lui attribuent pas de pronoms. Je pense que la conception est toujours délibérée, comme un autre exemple de cette exploitation, le Siri britannique est un homme à la sonorité très huppée.

[00:21:13] Ce qui, à mon avis, suggère qu'il s'agit d'un modèle de majordome. 

[00:21:18] Gabriel Miller : C'est vrai?

[00:21:18] Lai-Tze Fan : C'est une question de classe, tout d'un coup. Pas nécessairement une question de genre. Je suppose que c'est une sorte de type de per, comme ce type de personnage qui représente ce qu'ils imaginent s'il va faire le ménage pour vous.

[00:21:30] Il s'agit donc de veiller sur son enfant, de s'occuper des transactions et d'autres tâches domestiques ou de secrétariat. Qui, selon nous, fait ce travail? Et si c'est une femme qui présente, voilà ma réponse par rapport à une sorte de [...] chiffre au Royaume-Uni. 

[00:21:47] Gabriel Miller : Ce qui me frappe lorsque nous parlons de ce sujet, c'est cette sorte de relation mitigée que nous avons avec cette technologie et la façon dont elle peut reproduire les préjugés et les inégalités dans notre société.

[00:22:02] Et au même moment, je pense tout particulièrement quand il s'agit d'Internet, le potentiel qu'il a à éliminer les barrières et libérer les gens de certaines circonstances. Je pense par exemple au roman électronique qui, d'après ce que j'ai compris de votre travail et de votre description, a fini par être un moyen pour les femmes écrivains en particulier, qui ne pouvaient pas être publiées dans le système établi, de prendre en main leur écriture et leur publication. Pouvez-vous nous en parler un peu?

[00:22:37] Lai-Tze Fan : C'est quelque chose de très important pour moi. J'ai beaucoup appris à ce sujet de l'un des pionniers de la littérature électronique, Marjorie Luesebrink, qui porte le nom de plume de M.D. Coverley.

[00:22:51] Elle m'a donc beaucoup appris sur l'édition et sur l'industrie de l'édition dans les années soixante. Mais elle et tant d'autres femmes, Shelley Jackson, Stephanie Strickland, Judy Malloy, se sont tournées vers les espaces en ligne à la fin des années 80 et au début des années 90, lorsqu'elles ont pu utiliser les ordinateurs pour écrire selon leurs propres termes et s'auto-publier ou publier avec un des premiers éditeurs de littérature électronique, Eastgate Systems.

[00:23:23] Oui, c'est juste qu'il n'y a plus autant de gardiens. 

[00:23:26] Gabriel Miller : Vous nous avez dit que vous invitiez vos étudiants à ne pas penser de manière déterministe aux changements technologiques, ce qui signifie pour moi qu'il ne faut pas commettre l'erreur de penser que tout cela a été écrit pour nous sur des tablettes. Cela signifie qu'il ne faut pas faire l'erreur de penser que tout a été écrit pour nous sur des tablettes, et qu'il est gravé dans le marbre que nous avons le pouvoir de choisir et d'influencer l'orientation de ces technologies et la manière dont elles affectent notre société.

[00:23:54] Nous pouvons voir le potentiel des nouvelles technologies pour libérer et créer des opportunités et même pour contrebalancer les inégalités lorsque nous parlons de quelque chose comme la littérature électronique et nous voyons la tendance à reproduire les mêmes préjugés que ceux qui nous ont accablés ou qui ont marqué notre société dans le passé.

[00:24:19] Pour vous, qui enseignez la pensée et qui réfléchissez à la technologie et à sa relation avec nos vies, en particulier en ce moment, qu'est-il important que les gens sachent ou pensent ou quel est le message que vous leur transmettriez sur ce que nous devons savoir à propos de ces nouvelles technologies afin que nous puissions aller dans la direction de notre choix plutôt que de nous retrouver entraînés dans une direction que nous ne voulons peut-être pas emprunter? 

[00:24:50] Lai-Tze Fan : C'est une excellente question. En particulier parce que les outils qui seront donnés ne sont pas toujours à la hauteur lorsque ces outils nous sont présentés en raison des développements et de la technologie, alors allons-nous voir la fin des grands modèles de langage de si tôt? Absolument pas.

[00:25:09] Que pouvons-nous faire dans ce sens? Je pense que le plus grand encouragement et la plus grande suggestion que j'aurais à faire, c'est d'essayer d'en apprendre plus, de s'auto-éduquer et de rechercher des ressources valables pour s'informer sur ces outils, sur l'IA et sur ce que les entreprises proposent d'en faire.

[00:25:33] Il s'agit en grande partie d'efforts et, pour les chercheurs, il s'agit en grande partie de ne pas mobiliser les connaissances, de ne pas garder ces secrets parmi nous. C'est à la fois une invitation pour un public de tous les jours, mais aussi pour les chercheurs à faire plus d'efforts pour se rencontrer et parler des changements en cours et de leur impact sur les gens, mais aussi comment le faire de la manière la plus responsable possible afin que les changements, par exemple, l'expertise comme base de ces conversations, puissent se produire d'une manière inclusive.

[00:26:06] qui n'exclut pas certaines voix et certaines personnes lorsqu'il s'agit de prendre des décisions en matière de conception pour l'avenir. Je pense simplement à la manière dont la pression exercée sur certaines de ces grandes entreprises technologiques a fait la différence. Il s'agit en grande partie d'universitaires qui repoussent les limites, mais aussi de personnes qui apprennent quelles sont les implications.

[00:26:24] Essayer d'être aussi conscient que possible que ces choses ne sont pas hors de portée et que nous pouvons apprendre à leur sujet est une façon très importante de comprendre que nous pouvons potentiellement changer la direction de ces outils au fur et à mesure qu'ils progressent. Mais cela ne vient certainement pas de choses comme, je pense, un appât de la peur unilatéral, ce genre de choses.

[00:26:48] Je pense que c'est là que nous pourrions rencontrer des problèmes avec la législation et la réglementation, à la fois au sein de ces entreprises et à partir de sources externes, mais cela doit être fait d'une manière qui permette à tout le monde de parler. Et je sais que c'est également très difficile.

[00:27:10] Gabriel Miller : Merci d'avoir écouté le balado Voir Grand et notre invitée, Lai-Tze Fan, professeure adjointe de technologie et de changement social au département de sociologie et d'études juridiques de l'université de Waterloo. Je tiens également à remercier nos amis du Conseil de Recherches en Sciences Humaines, dont le soutien permet de réaliser ce balado.

[00:27:31] Enfin, merci à CitedMedia pour son soutien à la production du balado Voir Grend. Suivez-nous pour de nouveaux épisodes sur Spotify, Apple Podcast et Google Podcast, à la prochaine !