L’arrivée (la vraie, pas celle de Villeneuve)

Selon Pierre Poirier, ce n’est plus de la science-fiction aujourd’hui de penser que nous vivrons bientôt dans une société où nous pourrons interagir avec nos machines comme nous interagissons les uns avec les autres.
Photo: Adil Boukind Le Devoir Selon Pierre Poirier, ce n’est plus de la science-fiction aujourd’hui de penser que nous vivrons bientôt dans une société où nous pourrons interagir avec nos machines comme nous interagissons les uns avec les autres.

Le Devoir vous invite à reprendre les chemins de traverse de la vie universitaire. Une proposition à la fois savante et intime, à cueillir tout l’été comme une carte postale. Aujourd’hui, la saison se poursuit avec une réflexion sur une intelligence artificielle (IA) qui est là pour de bon. Aussi bien l’apprivoiser.

« Les extraterrestres sont arrivés, mais nous ne nous en sommes pas aperçus, car ils parlent notre langue. » C’est ainsi que Geoff Hinton, qu’on surnomme le « grand-père de l’intelligence artificielle », décrit l’arrivée des systèmes d’IA générative comme ChatGPT. Ces systèmes sont des extraterrestres selon lui, car leur manière d’appréhender et d’agir dans le monde est foncièrement différente de la nôtre, comme les créatures heptapodes du film L’arrivée de Denis Villeneuve. Mais contrairement à celles-ci, on n’a pas à embaucher des linguistes pour apprendre à communiquer avec elles : ces intelligences artificielles ont été créées pour converser avec nous.

Et comme les Martiens de la série culte Les envahisseurs, qu’on ne pouvait reconnaître qu’à leur incapacité à plier un de leurs petits doigts, ces intelligences artificielles vont nous envahir et nous ressembler davantage de jour en jour. Les capacités des systèmes comme ChatGPT dépendent en effet de ce que l’on appelle des grands modèles de langage, des représentations abstraites et complexes des langues naturelles développées uniquement à partir de textes glanés sur Internet.

On a cependant déjà commencé à les coupler à de grands modèles visuels et audio pour leur conférer des formes performantes de vision et d’audition, et des compagnies comme Boston Dynamics commencent à les intégrer dans des robots. Ce n’est plus de la science-fiction aujourd’hui de penser que nous vivrons bientôt dans une société où nous pourrons interagir avec nos machines comme nous interagissons les uns avec les autres.

Mais que faire lorsqu’on est envahi par des extraterrestres qui ne veulent plus partir ? L’attitude habituelle, parce que n’exigeant aucune décision, conseille l’attentisme : voyons ce qui arrivera et prenons des décisions lorsque pointeront des abus et des effets négatifs, comme nous l’avons fait pour la génération actuelle des grandes firmes Internet. Ce serait ne pas comprendre le potentiel perturbateur de ces technologies qui annoncent des changements systémiques importants dans tous les grands systèmes constituant nos sociétés. Que faire, alors ?

Il faut d’abord mieux comprendre comment les systèmes d’IA générative font ce qu’ils font. Il peut paraître étrange de recommander l’étude de systèmes que nous avons nous-mêmes construits. Mais, en fait, nous ne comprenions pas bien ces systèmes : ceux-ci sont immenses et sont appelés à croître de manière exponentielle pendant encore longtemps. Ils possèdent des centaines de milliards de paramètres, chacun comme un petit rhéostat individuellement ajusté par un processus automatique sur la base d’un ensemble massif de données dont personne ne connaît les interactions possibles.

Cela fait de ces systèmes d’IA des boîtes très opaques, presque noires, manipulant l’information d’une manière qui nous échappe encore et produisant ainsi toutes sortes de comportements inattendus. Si les risques existentiels découlant de cette incertitude demeurent faibles, de loin inférieurs à ceux qu’annoncent les changements climatiques, les bouleversements économiques sont certains et pressants, le seul doute concernant leur ampleur.

C’est pourquoi il est également essentiel de les réglementer et de planifier leur déploiement de manière réfléchie et consensuelle. Pour ce faire, il faut développer une littératie numérique adéquate parmi les personnes appelées à implémenter leur introduction dans les divers milieux du travail de l’économie.

Je n’aborderai pas la question de la réglementation ici, le Canada étant en voie d’introduire son propre régime par l’entremise du projet de loi sur l’intelligence artificielle et les données, actuellement étudié à la Chambre des communes, pour me concentrer sur celle de la planification, plus proche de chacun et chacune de nous. En effet, si nos sociétés sont en voie d’encadrer l’industrie de l’IA, elles n’ont pas encore développé au sein de la population les connaissances nécessaires pour mettre en place les systèmes d’IA de manière réfléchie dans les milieux qui la constituent : le monde du travail et les systèmes de santé, de justice et d’éducation.

Cette absence de littératie se traduit pour l’instant par des débats truffés de propos catastrophistes ou angélistes.

Les angélistes rêvent, par exemple, que l’introduction des systèmes d’IA dégagera les travailleurs et travailleuses des tâches ennuyantes et répétitives, leur permettant de se concentrer sur des projets demandant réflexion, évaluation et création, favorisant ainsi l’épanouissement humain. Cependant, les premiers échos qu’on entend des milieux où l’on a commencé à remplacer des tâches routinières par du travail complexe et créatif suggèrent plutôt que les tâches dites ennuyantes et répétitives sont celles où les travailleurs et travailleuses peuvent relaxer pendant leur journée de travail, alors que les tâches complexes et créatives engendrent une charge cognitive importante, difficile à soutenir toute une journée, ainsi que des responsabilités accrues quant aux résultats attendus par l’employeur, menant à un stress plus élevé.

À l’inverse, les catastrophistes craignent, par exemple, que l’arrivée des systèmes d’IA annonce la fin de l’éducation postsecondaire telle que nous la connaissons. Ces systèmes favorisent, selon eux, la paresse dans la population étudiante. S’il faut certes trouver des manières d’éviter que leur introduction transforme les établissements postsecondaires en usines où un chéquier et un abonnement à la plus récente version de ChatGPT suffisent pour obtenir un diplôme, on rencontre déjà des étudiants et étudiantes qui utilisent ces systèmes de manière judicieuse, témoignant d’une connaissance profonde de la manière d’interagir avec intelligence et créativité avec ces systèmes, nous laissant ainsi entrevoir les possibilités de l’intelligence humaine assistée.

Pour l’été, j’invite donc les lectrices et lecteurs du Devoir à développer leurs connaissances sur l’IA générative et les planificatrices et planificateurs de compte, à prévoir des formations sur ces systèmes dans leur milieu respectif ainsi qu’à promouvoir les échanges informés à leur sujet.

Ce texte fait partie de notre section Opinion, qui favorise une pluralité des voix et des idées en accueillant autant les analyses et commentaires de ses lecteurs que ceux de penseurs et experts d’ici et d’ailleurs. Envie d’y prendre part? Soumettez votre texte à l’adresse opinion@ledevoir.com. Juste envie d’en lire plus? Abonnez-vous à notre Courrier des idées.

À voir en vidéo