Intelligence artificielle (IA) - Actualités

Texet d’opinions dans Le Devoir

Montréal, leader de l’IA responsable ou vernis moral d’une nouvelle démesure?


iStock, montage Le Devoir
Si Montréal est devenue le leader mondial de l’IA responsable, cet écosystème constitue dès lors la conscience morale du capitalisme algorithmique, rapportent les auteurs.

Jonathan Durand Folco et Jonathan Martineau
Les signataires sont les auteurs du livre « Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle » (Écosociété, 2023).
30 septembre 2023
Idées

Ce n’est un secret pour personne, Montréal est devenue un pôle dynamique de calibre international dans le champ de l’intelligence artificielle (IA). Le sommet international All In, qui a eu lieu les 27 et 28 septembre derniers, célèbre d’ailleurs la spécificité de cette ville qui serait « le hub de l’IA en Amérique du Nord ».

La présence de l’Institut québécois d’intelligence artificielle (Mila), fondé par le parrain de l’apprentissage profond Yoshua Bengio, la supergrappe Scale AI, financée à hauteur de 337 millions par les gouvernements canadien et québécois et coprésidée par Hélène Desmarais, ainsi que les relations très étroites entre les universités, l’État et les grosses pointures de l’industrie constituent un « écosystème tricoté serré ». Ils font ainsi de Montréal l’un des foyers d’innovation, de recherche et de développement de machines algorithmiques à l’avant-scène de ce que Klaus Schwab, président du Forum économique mondial, appelle la « quatrième révolution industrielle ».

Plus précisément, Montréal occupe une niche unique, celle de « leader mondial de l’IA responsable ». La Déclaration de Montréal pour un développement responsable de l’IA (lancée en 2017), le fort réseau de chercheurs sur les effets sociaux de l’IA et le leadership de Bengio en matière d’appels à la réglementation de l’industrie et à une meilleure gouvernance de ces outils sont différents éléments qui militent en faveur de ce titre honorifique.

Limites de l’IA responsable

Et pourtant, l’approche éthique en matière de développement responsable de l’IA montre plusieurs limites. Premièrement, les déclarations éthiques qui se comptent par centaines à travers le monde, et dont les GAFAM sont souvent signataires, n’ont pas changé grand-chose jusqu’ici à la trajectoire globale de l’IA qui amplifie les inégalités sociales, effrite la vie démocratique et participe à l’aggravation de la crise climatique.

Deuxièmement, l’approche volontaire en matière d’IA responsable, comme le code de conduite volontaire annoncé par le ministre de l’Innovation, des Sciences et de l’Industrie, François-Philippe Champagne, de même que les futures lois canadiennes (C-27) sont taillées sur mesure pour l’industrie afin de rassurer les investisseurs et de recréer la confiance du grand public dans les technologies algorithmiques. Cette approche s’inscrit dans la lignée de la responsabilité sociétale des entreprises, qui sert davantage à leur donner bonne image et à créer de nouveaux marchés qu’à résoudre effectivement le problème des inégalités et la crise écologique.

Troisièmement, l’éthique se limite bien souvent à la réduction de biais algorithmiques et aux questions de transparence, qui passent sous silence le rôle pourtant central de la logique capitaliste. L’éthique joue donc le rôle de « conseiller du prince », et vise ainsi à réduire les méfaits de l’IA et à lui donner une légitimité (acceptabilité sociale) plutôt que de remettre en question son emprise sur les États, le développement territorial, nos relations sociales et nos subjectivités.

Un nouveau stade du capitalisme

Depuis la crise financière mondiale de 2007-2008, le capitalisme néolibéral, financiarisé et mondialisé a été frappé par une importante crise de légitimité, laquelle s’est accompagnée du développement parallèle de l’infrastructure nuagique, des données massives, de l’apprentissage automatique, des médias sociaux et des téléphones intelligents ainsi que de la consolidation des grandes plateformes numériques. Cela a contribué au passage vers un nouveau stade du capitalisme, dans lequel l’extraction et la valorisation de données personnelles représentent un axe central d’accumulation capitaliste.

Les données deviennent le « nouveau pétrole » et l’IA la « nouvelle électricité » qui permettent de faire fonctionner nos appareils intelligents et d’automatiser une foule de processus dans les sphères de l’entreprise, des chaînes d’approvisionnement, de la fonction publique, des transactions financières, etc. Autrement dit, le « capital algorithmique », c’est-à-dire la dynamique d’accumulation capitaliste appuyée sur l’IA, devient un acteur central de la vie économique et des relations sociales en général. Nous gardant rivés à nos écrans par des techniques de design addictif, nous sollicitant en permanence, dictant nos comportements par diverses recommandations, il remplace même parfois le jugement humain par le biais de systèmes décisionnels automatisés.

L’industrie de l’IA d’ici et d’ailleurs participe de plain-pied à la production du capital algorithmique, qui façonne aujourd’hui une bonne partie de nos vies, souvent à notre insu. Trop souvent, l’approche de l’IA responsable passe sous silence, voire cautionne implicitement, ce système socio-économique. Certes, on met en évidence certaines dérives de l’IA, à la pièce, sans toutefois reconnaître le rôle majeur que le capitalisme et les géants technologiques jouent dans la création, la sélection et le déploiement de ces machines.

De fausses solutions

L’IA responsable se donne souvent le beau rôle dans la résolution de graves problèmes de notre époque, comme la crise climatique. Or, sa prétention de vouloir accélérer la transition écologique par les algorithmes, les centres de données « verts » et les objets connectés omet le coût énergétique énorme de cette infrastructure industrielle planétaire, qui inclut l’extraction de métaux rares au Congo, les giga-usines en Chine, les entrepôts inhumains d’Amazon, la consommation massive d’eau pour refroidir les infrastructures qui entraînent ChatGPT et la montagne de déchets électroniques qui s’accumulent dans les pays du Sud.

Si Montréal est devenue le leader mondial de l’IA responsable, cet écosystème constitue dès lors la conscience morale du capitalisme algorithmique. Malheureusement, celle-ci participe trop souvent à se donner bonne conscience et à accompagner gentiment les acteurs privés, plutôt qu’à mettre en doute les mécanismes au coeur de ce système économique inégalitaire, antidémocratique et insoutenable.

Le nom du sommet sur l’IA All In est d’ailleurs révélateur : comme au poker, on mise tout sur l’IA. Tout le reste, les effets néfastes, les injustices automatisées, la précarisation du travail, l’accélération de la crise écologique, la dégradation du débat public causée par les chambres d’écho et les filtres algorithmiques, ce n’est pas très important. Montréal n’arrête pas ce progrès, elle y participe de façon enthousiaste en lui donnant un vernis moral.

2 « J'aime »

Dans le calepin de l’éditeur adjoint Intelligence artificielle : comment distinguer le vrai du… robot ?

IMAGE GÉNÉRÉE PAR L’INTELLIGENCE ARTIFICIELLE

Image générée par l’intelligence artificielle illustrant un récit écrit par ChatGPT dans le cadre d’un reportage de notre journaliste Katia Gagnon


François Cardinal
François Cardinal Vice-président Information et éditeur adjoint de La Presse

Le métier, les médias, la salle de rédaction de La Presse, et vous

Publié à 1h42 Mis à jour à 5h00

Partager

On aura peut-être un jour des logos et des certifications « sans IA », comme il y a des étiquettes « pas de sucre » ou « pas d’OGM ».

Mais en attendant, la plus grande vigilance est de mise avec l’intelligence artificielle, une technologie qui nous bouscule à un rythme troublant, qui pose d’innombrables enjeux éthiques, et qui brouille encore plus les lignes démarquant le vrai du faux.

C’est pour toutes ces raisons, et bien d’autres, que le gouvernement Trudeau invite ces jours-ci les entreprises technologiques à signer un « code de conduite volontaire » qui encadre les systèmes d’IA générative avancés.

Et c’est pourquoi nous avons travaillé fort ces derniers mois, de concert avec notre service juridique, pour élaborer nos propres lignes directrices sur l’intelligence artificielle* visant, là aussi, à encadrer l’utilisation de ces puissants outils technologiques avec une seule chose en tête : s’assurer que vous, les lecteurs, n’ayez jamais aucun doute quant à l’authenticité des textes, photos et images publiés dans La Presse.

Vous avez peut-être vu passer sur les réseaux sociaux cette image du pape en doudoune blanche en pensant qu’elle était vraie (je plaide coupable !). Ou encore, celle d’Emmanuel Macron en éboueur, ou celle de Donald Trump qui se débat en pleine arrestation violente (cinq mois avant qu’il se rende aux autorités).

1/3

Déjà, la confusion s’installe entre le vrai et le robot ! Et ce ne sont que les débuts de ce qu’on appelle l’IA générative, soit l’intelligence artificielle qui produit du contenu. Ça peut être du texte, des photos, de la voix, voire de la chanson ou de la vidéo, comme cette fausse performance de Drake et The Weeknd.

0:00 0:29

Donc, imaginez un monde dans lequel vous consultez un média… sans toujours savoir si ce que vous lisez a été écrit par un humain ou une machine, sans savoir si la photo que vous regardez représente une scène qui a bel et bien existé.

Impensable.

Ou du moins, nous pensons que ça doit demeurer impensable.

Et c’est pourquoi nous avons rédigé des lignes directrices que l’on pourrait qualifier de sévères à l’usage de nos journalistes.

En un mot, sauf autorisation contraire, il est carrément « interdit d’utiliser des outils externes d’IA générative afin de produire des textes, photos, vidéos ou images destinés à publication ».

Dans ce cas, si ce n’est pas permis, pourquoi avoir élaboré cinq pages de lignes directrices ? Parce qu’il y a toutes sortes de cas de figure où l’IA peut être utile aux journalistes, sans que ce soit pour générer du contenu destiné à la publication.

Il y a la recherche, par exemple : les géants cherchent à fondre leur moteur de recherche et leurs outils d’IA. Un reporter pourrait donc demander à la dernière version de Bing, par exemple, quelle date marque le début de François Legault en politique (réponse : « Il a commencé sa carrière politique le 23 septembre 1998 »). Suffit ensuite de contre-vérifier l’information, ce qu’imposent d’ailleurs nos lignes directrices.

Il y a l’automatisation : l’IA permet la traduction et la transcription d’entrevues, ce que nous permettons. Là encore, il est impératif que le journaliste en vérifie l’exactitude, en relisant soigneusement le texte original et la traduction réalisée par l’outil en ligne Deepl, par exemple.

Notre règle d’or : « L’IA doit être employée comme un outil au service des journalistes et non comme un moyen de se substituer à eux. »

Nous interdisons par exemple aux journalistes de recourir à l’IA pour résumer de gros documents, car ce serait demander au robot de faire le travail à leur place. Un travail qui serait forcément imparfait, car la machine, tout aussi intelligente soit-elle, n’aurait pas le jugement journalistique nécessaire pour capter toutes les portions importantes d’un document.

J’en veux pour preuve la nouvelle publiée en juillet dernier par Louis-Samuel Perron sur cette femme agressée sexuellement, puis refusée par l’Hôpital général de Montréal parce qu’elle parle français.

Lisez l’article de Louis-Samuel Perron

L’histoire se trouvait à l’intérieur d’un jugement de neuf pages qui ne portait pas sur ce sujet, mais sur l’agression sexuelle comme telle.

Un résumé généré par l’IA aurait simplement indiqué que Martin Jolicœur était condamné à 18 mois de prison pour avoir agressé sexuellement son amie en juillet 2020, sans s’attarder à l’angle troublant de l’admission à l’hôpital de la victime.

Dernier point d’importance : la transparence.

Si, dans certaines circonstances bien précises, on teste l’IA ou on y a recours pour créer du contenu destiné à la publication dans La Presse, cela doit non seulement être autorisé par la direction de l’information, cela doit surtout être clairement indiqué pour évacuer tout doute (comme pour les photos qui illustrent cet article).

Nous avons par exemple permis en mars dernier au journaliste Charles-Éric Blais-Poulin d’utiliser ChatGPT afin de lui demander « une liste de journalistes qui ont été visés par des allégations d’inconduite sexuelle ». Le but était bien sûr de démontrer le manque de fiabilité de la machine, qui a bel et bien généré la liste demandée, mais en y intégrant des confrères qui n’avaient jamais été visés par quelque allégation que ce soit !

Lisez l’enquête de Charles-Éric Blais-Poulin

Autre exemple : on a permis le printemps dernier à la journaliste Katia Gagnon de se servir de ChatGPT pour rédiger l’histoire d’un chien qui sauve une famille d’une maison en flammes « en utilisant le style d’écriture de Katia Gagnon ».

L’objectif, clairement indiqué, était de documenter la facilité avec laquelle on peut créer de toutes pièces une histoire crédible, appuyée par des photos, dans le but de démontrer les risques de désinformation en ligne.

Le texte actuellement sur le web est ainsi précédé d’un paragraphe indiquant que ce récit a été généré par l’intelligence artificielle. Et les photos portent la mention « IMAGE GÉNÉRÉE PAR L’INTELIGENCE ARTIFICIELLE ».

Lisez le récit généré par l’intelligence artificielle

Car encore là, l’important est de distinguer clairement, en tout temps, le vrai du faux. Une tâche qui a toujours fait partie du devoir du journaliste, mais qui deviendra encore plus importante, au fur et à mesure que les outils d’IA se développeront.

En fait, le rôle des professionnels de l’information deviendra de plus en plus celui d’« authentificateur de la vérité ».

*Lisez les lignes directrices de La Presse

1 « J'aime »

États-Unis, Chine et UE Signature d’une première déclaration mondiale sur les risques de l’IA

PHOTO TOBY MELVILLE, REUTERS

L’Union européenne et les 28 pays réunis à Bletchley Park au nord de Londres se sont mis d’accord sur « le besoin urgent de comprendre et gérer collectivement les risques potentiels » de l’IA à travers « un nouvel effort mondial visant à garantir que l’IA est développée et déployée de manière sûre et responsable ».

La Chine, les États-Unis, l’UE et une vingtaine de pays ont signé mercredi au Royaume-Uni la déclaration de Bletchley pour un développement « sûr » de l’intelligence artificielle (IA), lors du premier sommet international consacré à cette technologie à l’essor fulgurant.

Mis à jour le 1er novembre

Partager

Clara LALANNE Agence France-Presse

L’Union européenne et les 28 pays réunis à Bletchley Park, au nord de Londres, se sont mis d’accord sur « le besoin urgent de comprendre et gérer collectivement les risques potentiels » de l’IA à travers « un nouvel effort mondial, visant à garantir que l’IA est développée et déployée de manière sûre et responsable ».

« Cette déclaration historique marque le début d’un nouvel effort mondial visant à renforcer la confiance du public dans l’IA en veillant à ce qu’elle soit sûre », a salué le premier ministre britannique Rishi Sunak sur X (ex-Twitter).

Face au potentiel des modèles les plus avancés, comme le robot conversationnel ChatGPT, la déclaration de Bletchley « montre que pour la première fois, le monde se réunit pour identifier le problème et mettre en avant ses opportunités » a souligné la ministre britannique de la Technologie Michelle Donelan à l’AFP.

Cette réunion « n’a pas pour objectif de poser les bases d’une législation mondiale, elle doit servir à tracer une voie à suivre », a-t-elle précisé.

Deux sommets internationaux sur l’IA suivront, en Corée du Sud puis en France, a-t-elle ajouté depuis l’emblématique centre de décryptage des codes de la Seconde Guerre mondiale, où Alan Turing a « craqué » celui de la machine Enigma utilisée par les nazis.

« Arbitre indépendant »

Pendant deux jours, dirigeants politiques, experts de l’IA et géants de la tech y sont réunis à l’initiative du Royaume-Uni, qui veut prendre la tête d’une coopération mondiale sur cette technologie.

Le milliardaire américain Elon Musk, qui a cofondé l’entreprise pionnière OpenAI en 2015, a plaidé mercredi pour qu’un « arbitre indépendant » puisse « sonner l’alarme s’il a des inquiétudes » sur les évolutions de l’IA, l’une des « plus grandes menaces » qui pèsent sur l’Humanité, a-t-il déclaré à la presse à Bletchley Park.

Le controversé patron de X (ex-Twitter), également à la tête de Tesla et SpaceX, échangera avec le premier ministre britannique Rishi Sunak jeudi soir.

La vice-présidente américaine Kamala Harris, qui donnait un discours à l’ambassade des États-Unis à Londres, a elle aussi mis en garde contre les « menaces existentielles » de l’IA, qui pourraient « mettre en péril l’existence même de l’Humanité », et à plus court terme, des démocraties.

Kamala Harris, qui sera présente à Bletchley Park jeudi, a également annoncé la création d’un institut sur la sécurité de l’intelligence artificielle à Washington, comme le Royaume-Uni.

« Huis clos »

Les IA génératives, capables de produire texte, sons ou images sur simple requête en une poignée de secondes, ont fait des progrès exponentiels ces dernières années et les prochaines générations de ces modèles feront leur apparition d’ici l’été.

Ces technologies suscitent d’immenses espoirs pour la médecine ou l’éducation, mais pourraient aussi déstabiliser les sociétés, permettre de fabriquer des armes ou échapper au contrôle des humains, a averti le gouvernement britannique.

A quelques mois d’élections cruciales comme la présidentielle américaine ou les législatives britanniques, l’IA générative fait craindre un déferlement de faux contenus en ligne, avec des montages perfectionnés (« deepfake ») de plus en plus crédibles.

Jeudi, de hauts responsables politiques sont attendus pour la deuxième journée du sommet.

Parmi eux, la présidente de la Commission européenne Ursula von der Leyen, le secrétaire général de l’ONU Antonio Guterres ou la première ministre italienne Giorgia Meloni – seule cheffe d’État ou de gouvernement du G7 à faire le déplacement.

Le Royaume-Uni espère les convaincre de créer un groupe d’experts sur l’IA sur le modèle du Giec pour le climat.

Tout l’enjeu est d’arriver à définir des garde-fous sans entraver l’innovation pour les laboratoires d’IA et géants de la tech. L’UE et les États-Unis, contrairement au Royaume-Uni, ont choisi la voie de la réglementation.

La semaine dernière, plusieurs entreprises comme OpenAI, Meta (Facebook) ou DeepMind (Google) ont accepté de rendre publiques certaines de leurs règles de sécurité sur l’IA à la demande du Royaume-Uni.

Dans une lettre ouverte adressée à Rishi Sunak, une centaine d’organisations, experts et militants internationaux ont déploré que ce sommet se tienne à « huis clos », dominé par les géants de la tech et avec un accès limité pour la société civile.

1 « J'aime »

Vie numérique Les pigistes de l’écrit, premières victimes de ChatGPT

PHOTO TOMOHIRO OHSUMI, ARCHIVES BLOOMBERG

En analysant les données de près de 100 000 pigistes sur Upwork, 3 chercheurs universitaires ont constaté une baisse moyenne de 10 % de leurs revenus cinq mois après le lancement de ChatGPT.

Il n’a fallu que quelques semaines pour que les pigistes de l’écrit, surtout les plus qualifiés, perdent contrats et revenus après le lancement de ChatGPT, ont découvert des chercheurs universitaires américains. Sont-ils les canaris dans la mine, les premiers des « 300 millions d’emplois » appelés à disparaître ? Pour un expert, ce n’est pas tant l’intelligence artificielle que les « décisions d’affaires » qui sont mises en cause.

Publié à 2h13 Mis à jour à 8h00

Partager


Karim Benessaieh
Karim Benessaieh La Presse

92 547

Nombre de pigistes dont on a utilisé les données publiques entre avril 2022 et mars 2023 sur Upwork. Cette vaste plateforme offerte dans 180 pays connecte quelque 5 millions de clients et 18 millions de professionnels. « En raison de la flexibilité de ce marché de niche comparé aux emplois traditionnels, c’est un outil parfait pour explorer les effets à court terme de ChatGPT », expliquent trois chercheurs américains, Xiang Hui et Oren Reshef, de l’Université Washington à Saint Louis, et Lupofeng Zhou, de l’Université de New York, dans leur étude The Short-Term Effects of Generative Artificial Intelligence on Employment, publiée le 31 juillet dernier, mais non révisée par des pairs.

Baisses en série

Puisque ChatGPT est une intelligence artificielle (IA) générative utilisant essentiellement le langage écrit, les chercheurs se sont concentrés sur les pigistes les plus susceptibles d’être touchés par son arrivée, ceux offrant « des services liés à l’écriture » comme la création de contenus, la synthèse, l’édition, la rédaction. Ils ont constaté une chute marquée du nombre de contrats obtenus, de l’ordre de 2,6 %, cinq mois après le lancement de ChatGPT.

En matière de revenus, la baisse est encore plus spectaculaire : environ 10 % durant cette période.

Le risque de la qualité

Dans un deuxième temps, les chercheurs ont tenté une approche audacieuse : établir si la « qualité » du pigiste a amoindri la chute. « Nous avons utilisé plusieurs mesures pour déterminer cette qualité, dont leurs emplois et revenus passés, le niveau d’habileté requis pour ces emplois passés, les performances compilées et leur taux horaire », expliquent les auteurs.

Surprise : « les performances de haut niveau et le service de haute qualité n’aident pas à amoindrir les effets de l’introduction de l’IA générative ».

Par une combinaison complexe de données, on en arrive même à une conclusion plus inquiétante : « Il y a des preuves suggérant que les meilleurs employés sont disproportionnellement frappés par l’IA. »

Les chercheurs ont tenu à conclure leur étude sur une note d’espoir. « Notre rapport se concentre uniquement sur les effets [négatifs] sur les travailleurs. Évaluer toutes les implications de l’arrivée des IA génératives sur le bien-être des parties prenantes est une tâche au-delà du mandat de cette étude, mais demeure une direction prometteuse pour de futurs travaux. »

Nombreux avertissements

Les trois chercheurs américains ne sont pas les premiers à tirer la sonnette d’alarme sur les risques de l’intelligence artificielle en matière d’emploi. Leur étude a cependant le mérite de démontrer de façon empirique, et à court terme, les effets d’une IA générative comme ChatGPT.

En février 2023, se basant sur un sondage effectué auprès de 500 entreprises européennes utilisant ChatGPT, la firme Sortlist Data Hub avait conclu que 26 % des entreprises de logiciels et d’informatique prévoyaient supprimer des emplois comme résultat direct de l’arrivée de l’IA.

En mars dernier, un rapport d’économistes de Goldman Sachs avait estimé que plus de 300 millions d’emplois à temps plein dans le monde, essentiellement des cols blancs, pourraient être automatisés avec l’utilisation d’IA comme ChatGPT. Les effets seraient plus marqués dans les pays développés.

Depuis novembre 2022, nombre de médias dans le monde, notamment le Washington Post et India Today, ont publié des témoignages de professionnels créatifs qui ont eu la surprise d’être remplacés par une IA générative.

La mauvaise cible

Le thème de l’IA menaçante, Frédérick Plamondon connaît bien. Ce doctorant en relations industrielles, ex-chargé de cours à l’Université Laval, a notamment abordé des sujets chauds comme le coût environnemental de l’IA, la vie privée et la construction de mythes dans les 73 épisodes de l’émission balado IA Café, dont il est un des coauteurs.

Il note d’entrée de jeu que l’étude s’intéresse à des pigistes, et non de façon plus générale à des « cols blancs » comme certains articles le présentent.

C’est une grosse différence : les cols blancs, ce sont des professionnels qui sont généralement salariés, des gens de bureau, des cadres intermédiaires, des superviseurs, des chefs de service […] Les pigistes, c’est un autre contexte : ce n’est pas une relation salariée, ils n’ont pas les protections sociales, ce sont des gens en situation de précarité.

Frédérick Plamondon, doctorant en relations industrielles, ex-chargé de cours à l’Université Laval

On peut effectivement s’attendre à des transformations profondes du marché de l’emploi, mais elles ne sont pas inéluctables, estime l’expert. « Est-ce que c’est la machine qui provoque ça, ou est-ce que ce ne sont pas plutôt des décisions de gestion ? Ce n’est pas l’intelligence artificielle qui fait perdre des emplois, ce sont des gestionnaires et des managers qui choisissent d’aller vers une expertise synthétique simulée parce qu’ils pensent que ça va convenir à leur clientèle. C’est surtout ça, l’enjeu. »

M. Plamondon plaide, comme l’ont fait nombre d’intervenants depuis mars dernier, pour une meilleure régulation de l’IA. Pas nécessairement pour ralentir son développement, mais pour maîtriser son impact sur nos vies. « Ce n’est pas que l’intelligence artificielle est en train de devenir dangereuse, mais ces nouvelles technologies mettent beaucoup de pouvoir entre les mains d’entreprises qui vont s’en servir pour générer plus de profits […] Et des employeurs choisissent cette solution-là plutôt que de payer des êtres humains pour travailler et développer leurs compétences. »

L’Union européenne va, pour la première fois, encadrer l’intelligence artificielle

Un logo de l'intelligence artificielle en lumière bleue sur un fond sombre.

L’Union européenne va proposer un premier ensemble de règles touchant notamment les systèmes d’IA générative.

Photo : Envato / Nora Chabib

Agence France-Presse

Publié hier à 20 h 58 HNE

Après trois jours de négociations intenses entre les États membres et le Parlement européen, l’Union européenne s’est accordée vendredi sur une législation inédite à l’échelle mondiale pour réglementer l’intelligence artificielle (IA).

Les colégislateurs de l’UE ont trouvé un accord politique sur un texte qui doit favoriser l’innovation en Europe, tout en limitant les possibles dérives de ces technologies très avancées.

Historique! L’UE devient le premier continent à fixer des règles claires pour l’utilisation de l’IA, s’est félicité le commissaire européen Thierry Breton, à l’origine du projet présenté en avril 2021.

Depuis cette date, les discussions ont traîné en longueur. Le dernier tour de négociations, démarré mercredi après-midi, aura lui-même duré près de 35 heures…

Le processus avait été interrompu en fin d’année dernière par l’apparition de ChatGPT, le générateur de textes de la société californienne OpenAI capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes.

Ce système, comme ceux capables de créer des sons ou des images, a révélé au grand public le potentiel immense de l’IA, mais aussi certains risques. La diffusion sur les réseaux sociaux de fausses photographies, plus vraies que nature, a par exemple alerté sur le danger de manipulation de l’opinion.

Ce phénomène des IA génératives a été intégré aux négociations en cours, à la demande des eurodéputés qui insistent sur la mise en place d’un encadrement particulier pour ce type de technologies percutantes. Ils ont réclamé notamment plus de transparence sur les algorithmes et les bases de données géantes au cœur de ces systèmes.

Les États membres craignaient qu’une réglementation excessive tue dans l’œuf leurs champions naissants, comme Aleph Alpha en Allemagne et Mistal AI en France, en rendant prohibitifs les coûts de développement.

Encore du travail à faire

L’accord politique trouvé vendredi soir doit être complété par un travail technique pour finaliser le texte. Nous allons analyser attentivement le compromis trouvé aujourd’hui et nous assurer dans les prochaines semaines que le texte préserve la capacité de l’Europe à développer ses propres technologies d’intelligence artificielle et son autonomie stratégique, a réagi le ministre français du Numérique, Jean-Noël Barrot.

Le secteur de la techno se montre critique. La rapidité semble avoir prévalu sur la qualité, avec des conséquences potentiellement désastreuses pour l’économie européenne, a estimé Daniel Friedlaender, responsable Europe du CCIA, un de ses principaux lobbies. Selon lui, un travail technique est désormais nécessaire sur des détails cruciaux.

Concernant les IA génératives, le compromis prévoit une approche à deux vitesses. Des règles s’imposeront à tous pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et pour qu’ils ne violent pas la législation sur les droits d’auteur.

Les développeurs devront par ailleurs s’assurer de bien indiquer que les sons, les images et les textes produits sont artificiels, lorsque c’est le cas.

Des contraintes renforcées s’appliqueront aux seuls systèmes les plus puissants.

Le texte reprend les principes des réglementations européennes existantes en matière de sécurité des produits qui imposent des contrôles reposant d’abord sur les entreprises.

Des règles pour les systèmes plus importants

Le cœur du projet consiste en une liste de règles imposées aux seuls systèmes jugés à haut risque, essentiellement ceux utilisés dans des domaines sensibles comme les infrastructures essentielles, l’éducation, les ressources humaines, le maintien de l’ordre…

Ces systèmes seront soumis à une série d’obligations, comme celles de prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque.

La législation prévoit un encadrement particulier des systèmes d’IA qui interagissent avec les humains. Elle les obligera à informer l’utilisateur qu’il est en relation avec une machine.

Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes, comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l’identification biométrique à distance des personnes dans les lieux publics pour éviter une surveillance de masse des populations.

Sur ce dernier point, les États ont toutefois obtenu des exemptions pour certaines missions des forces de l’ordre comme la lutte contre le terrorisme.

Contrairement aux codes de conduite volontaires de certains pays, la législation européenne sera dotée de moyens de surveillance et de sanctions avec la création d’un office européen de l’IA, au sein de la Commission européenne. Il pourra infliger des amendes jusqu’à 7 % du chiffre d’affaires, avec un plancher de 35 millions d’euros, pour les infractions les plus graves.

À lire aussi :

En tout 6 articles sur l’intelligence artificielle dont 3 publiés en détails ici. Voir les autres à partir du lien tout en bas. À mon avis tout va tellement vite que je me demande si nous aurons la sagesse de brider cette incroyable révolution, qui aura le pouvoir de changer le monde de manière globale et irréversible?


Science et médecine C’est bel et bien une révolution

PHOTOMONTAGE LA PRESSE

Savez-vous ce que j’avais en tête quand je suis sorti des bureaux d’Innovobot, une société « d’innovation et d’investissement » montréalaise qui occupe le 11e étage d’un immeuble du Plateau Mont-Royal ?

Publié à 5h00

Partager


Alexandre Sirois
Alexandre Sirois La Presse

Le riff de guitare de la chanson Revolution des Beatles.

J’avais passé environ 90 minutes à discuter d’intelligence artificielle avec cinq des employés de cette petite entreprise.

À découvrir les inventions qui y sont nées (dont un petit robot sous-marin qui peut se déplacer grâce à l’IA).

Et au cours de nos discussions, le mot « révolution » a été prononcé plus d’une fois.

Entre autres quand j’ai demandé au directeur des opérations d’Innovobot, Fadi Albatal, d’évaluer les changements en cours dans le domaine de l’intelligence artificielle.

« C’est une révolution », a-t-il dit. Et je sentais qu’il pesait ses mots.

« Les premiers articles sur la reconnaissance de l’image ont commencé à sortir de l’Université de Montréal et de l’Université de Toronto en 2012 environ. Et maintenant, on parle de voitures qui roulent toutes seules, d’avions qui volent et qui atterrissent seuls, de machines qui peuvent rédiger des articles de journaux, de machines qui peuvent faire du design mécanique, électrique, électronique, qui peuvent prescrire des médicaments, qui peuvent réaliser des images… »

Et d’ajouter : « On peut faire tout ça au bout d’une décennie. C’est la définition d’une révolution ! »

J’avais contacté les responsables d’Innovobot parce que je cherchais à comprendre ce qui nous attend en matière d’intelligence artificielle en 2024. Sachant que dans divers médias, certains ont exprimé au cours des dernières semaines des doutes sur la valeur réelle des développements de 2023.

Il y a bel et bien eu un buzz médiatique, mais « est-ce que quelque chose a changé ? », s’est par exemple demandé un journaliste du réputé Financial Times.

Quand j’ai parlé de cet article à Sylvain Carle, associé chez Innovobot qui porte le titre de responsable Technologies au service du bien, il m’a répondu en me parlant du caractère exponentiel des progrès en intelligence artificielle.

Il m’a offert, pour comprendre le scepticisme affiché par certains, une métaphore digne d’une fable de La Fontaine.

Il m’a demandé d’imaginer une mare où se trouvent des grenouilles et des nénuphars – qui ont eux aussi cette particularité de se reproduire de façon exponentielle.

« Au début, il y en a un, ensuite deux, ensuite quatre. Et un jour, [la mare] est à moitié pleine. Alors le lendemain, elle va être entièrement pleine. Je pense que c’est cette accélération et ce facteur exponentiel qui sont difficiles à percevoir pour le public », a-t-il expliqué.

PHOTO MARTIN TREMBLAY, ARCHIVES LA PRESSE

Sylvain Carle, associé chez Innovobot

Ça s’accélère de plus en plus. Et tout ce qu’on a accompli comme avancées vient se combiner avec de nouvelles avancées. On va probablement voir cette année l’arrivée de nouvelles approches en intelligence artificielle.

Sylvain Carle, associé chez Innovobot

Professeur de psychiatrie computationnelle à l’Université de Montréal, Guillaume Dumas abonde dans son sens.

« Le problème, c’est qu’on a un domaine où tellement de gens jouent la carte du sensationnalisme que, forcément, ça crée des attentes amplifiées par rapport au temps que ça prend pour passer de l’idée à l’application. »

Il confirme toutefois que l’intelligence artificielle est bel et bien, déjà, en train de changer la donne dans son domaine de prédilection : la santé.

Selon lui, 2023 est une année qui s’est inscrite « dans la continuité » dans ce secteur. L’IA a par exemple été utilisée pour analyser des images médicales, tout particulièrement en radiologie et en dermatologie.

Règle générale, ça va se poursuivre en 2024, dit-il.

Tout comme on va continuer de se servir de l’intelligence artificielle pour « identifier de nouveaux composants chimiques pour des médicaments ».

Mais ce qui va vraiment exploser en 2024, c’est tout ce qui concerne l’application des robots conversationnels comme ChatGPT sur la prise en charge médicale. Et ça va du triage à l’entrée de l’hôpital à la psychothérapie.

Guillaume Dumas, professeur de psychiatrie computationnelle à l’Université de Montréal

Guillaume Dumas, qui est aussi directeur du laboratoire de psychiatrie de précision et de physiologie sociale du Centre de recherche du CHU Sainte-Justine, reconnaît que « c’est extrêmement complexe » d’utiliser les robots conversationnels pour les problèmes de santé mentale.

Mais les utilisateurs de ChatGPT ont déjà commencé à s’en servir avec cet objectif en 2023, alors pas question de se mettre la tête dans le sable !

« Il y a beaucoup de barrières éthiques, mais il faudra former les médecins et, potentiellement aussi, les citoyens. »

Culture et médias Lutter contre la désinformation, protéger notre culture

PHOTOMONTAGE LA PRESSE

Le monde entier s’expose aux dérapages potentiels de l’IA cette année.

Publié à 5h00

Partager


Alexandre Sirois
Alexandre Sirois La Presse

Entre autres parce que des scrutins nationaux ont lieu dans plus de 50 pays en 2024, ce qui représente plus de la moitié de la population de la planète. Y compris les États-Unis, première puissance mondiale.

Je savais que Colette Brin, directrice du Centre d’études sur les médias de l’Université Laval, se penchait sur le problème de la désinformation depuis plusieurs années.

Quand nous avons échangé à ce sujet, elle m’a rapidement parlé du Global Risks Report 2023, publié en marge du Forum économique mondial de Davos à la mi-janvier. Pour les experts sondés dans le cadre de cette étude, l’un des risques les plus sérieux pour le monde à court terme est « la désinformation et la mésinformation ».

Ce n’est pas étonnant, puisque « l’intelligence artificielle permet de décupler la production ou la diffusion de contenus trompeurs », dit-elle. Des « acteurs chevronnés » comme les pirates du régime russe disposent donc désormais d’« outils supplémentaires » qui leur donnent « encore plus de force de frappe ».

J’ouvre une parenthèse ici pour souligner que les simples fraudeurs vont aussi tirer profit de ces nouveaux outils. Et c’est déjà commencé. Le récent texte de mon collègue Charles-Éric Blais-Poulin, qui raconte comment on utilise maintenant des hypertrucages au téléphone pour soutirer de l’argent à des Québécois, le démontre clairement.

Consultez l’article « Berné par la fausse voix de son fils », de Charles-Éric Blais-Poulin

Même Taylor Swift a fait les frais, récemment, des trucages effectués grâce à l’IA. De fausses images pornographiques de la populaire chanteuse ont circulé sur les réseaux sociaux pendant plusieurs heures. La controverse a fait réagir la Maison-Blanche. Une porte-parole a rappelé que « le manque d’application des règles a un impact disproportionné sur les femmes et les filles, qui sont les principales cibles du harcèlement en ligne ».

Colette Brin demeure cependant prudente quant à un impact majeur sur les élections, qu’elle qualifie d’hypothétique. Elle parle d’« inquiétudes », mais aussi d’« incertitudes ».

Ce dont elle est sûre, toutefois, c’est que 2024 va être « le grand laboratoire » en la matière.

Un exemple frappant : aux États-Unis, avant la primaire du New Hampshire, des électeurs ont reçu des appels automatisés où une voix ressemblant à s’y méprendre à celle de Joe Biden les exhortait à ne pas voter. Les autorités de l’État ont déclenché une enquête et estiment que l’IA est en cause.

Un autre laboratoire où les risques ne sont pas négligeables, c’est le milieu culturel.

« J’avais peur avant et j’ai encore plus peur » pour la culture québécoise, m’a dit le directeur général du Conseil de l’innovation du Québec, Luc Sirois.

Il souligne les bienfaits potentiels de l’intelligence artificielle, mais il estime aussi que les dangers posés par le virage numérique pris par nos sociétés ne vont faire que s’accentuer.

PHOTO MARCO CAMPANOZZI, ARCHIVES LA PRESSE

Luc Sirois, directeur général du Conseil de l’innovation du Québec

Les médias sociaux, la vie numérique, ont créé plein d’enjeux, dont la menace aux médias québécois et à la culture québécoise. Et l’IA amplifie par 1000 les dangers qui existaient déjà.

Luc Sirois, directeur général du Conseil de l’innovation du Québec

Sachez que ses bottines vont suivre ses babines sous peu.

Son organisme s’apprête à publier une série de recommandations, à la demande du gouvernement du Québec, pour veiller à ce qu’on développe et utilise l’intelligence artificielle de façon responsable.

Avenir de l’humanité et sécurité Pas de temps à perdre

PHOTOMONTAGE LA PRESSE

Je ne pouvais pas aborder le sujet de l’encadrement de l’IA en 2024 sans contacter les responsables de Mila – Institut québécois d’intelligence artificielle, fondé par le professeur Yoshua Bengio, dont les mises en garde ont résonné aux quatre coins du monde en 2023.

Publié à 5h00

Partager


Alexandre Sirois
Alexandre Sirois La Presse

J’ai rapidement demandé à Yoshua Bengio s’il pensait que cette année allait être celle du point de bascule en matière d’encadrement de l’IA.

Des progrès sont en cours. Les États européens ont fini par conclure un premier accord à la fin de l’année dernière au sujet d’un cadre législatif. Le Parlement canadien étudie un projet de loi qui va dans ce sens. Aux États-Unis, un décret présidentiel a été signé par Joe Biden en octobre 2023 et on s’attend à ce que divers États légifèrent en 2024.

« J’aimerais qu’il y ait un point de bascule. Il faudrait que beaucoup plus de pays fassent des législations pour encadrer, pour éviter le plus possible les dérapages dont on parle. On n’y est pas, mais ça commence », m’a-t-il répondu.

« On est encore à une étape très fragile sur le plan réglementaire. Il y a beaucoup à faire.

« Les propositions sur la table, par exemple en Europe ou au Canada, sont à mon sens insuffisantes pour se protéger des plus grands risques. Par exemple, la proposition canadienne ne dit rien, zéro, sur les risques pour la sécurité nationale ou la démocratie. »

PHOTO CHARLES WILLIAM PELLETIER, ARCHIVES COLLABORATION SPÉCIALE

Valérie Pisano, PDG de Mila

Valérie Pisano, PDG de Mila, a pour sa part une très bonne idée de ce qui doit être fait, sans tarder, en 2024 au sujet de l’encadrement et de la sécurité. Elle voit, par-dessus tout, deux initiatives cruciales.

Premièrement, « mettre l’obligation de sécurité sur les épaules des compagnies qui déploient ces technologies-là. Comme on le fait en aviation, en biotech, dans le secteur médical ».

Ensuite, il faut accélérer la recherche sur les façons d’assurer la sécurité des systèmes d’intelligence artificielle.

Tant Valérie Pisano que Yoshua Bengio ont insisté sur le fait que les sociétés qui conçoivent les outils d’intelligence artificielle sont actuellement incapables de démontrer que leurs systèmes sont sécuritaires. C’est, selon eux, très problématique.

PHOTO HUGO-SÉBASTIEN AUBERT, ARCHIVES LA PRESSE

Yoshua Bengio, fondateur et directeur scientifique de Mila – Institut québécois d’IA

Les scientifiques ne savent pas comment entraîner une IA qui ne se retournerait pas contre les êtres humains… Qui ne pourrait pas être utilisée par des malfaiteurs, des terroristes, etc., à des fins dangereuses pour la société, pour l’humain, pour la démocratie. On ne sait pas comment mettre des garde-fous technologiques.

Yoshua Bengio, fondateur et directeur scientifique de Mila – Institut québécois d’IA

Aux yeux de ces deux experts, 2024 doit absolument être une année charnière en matière de gestion de risque.

« On a une bonne idée des chantiers qu’on doit lancer sur le plan de l’emploi, sur le plan de l’éducation, sur le plan de la réglementation et de la sécurité, explique Valérie Pisano ; 2024 devrait être l’année où on commence vraiment à construire chacun de ces chantiers pour être en avant sur ces questions-là, indépendamment de la vitesse à laquelle on pourrait devoir faire face à des choix difficiles. »

En l’écoutant, j’ai repensé à la métaphore des grenouilles et des nénuphars.

Ces « choix difficiles » nous paraissent pour l’instant lointains et on peut douter de l’urgence de la situation si on oublie à quel point une mare peut, à un moment donné, se recouvrir de nénuphars du jour au lendemain.

La nature exponentielle des progrès en intelligence artificielle fait que nous n’avons pas de temps à perdre.

1 « J'aime »

Intelligence artificielle « L’urgence de réglementer l’IA a décuplé »

PHOTOMONTAGE LA PRESSE

Comment réglementer l’intelligence artificielle (IA) ? Alors que les exemples de dérive se multiplient, différents pays et territoires autour du monde tentent de répondre à cette question.

Publié à 0h49 Mis à jour à 5h00

Partager


Nicolas Bérubé
Nicolas Bérubé La Presse

Quand l’IA clone la voix

PHOTO OLIVIER JEAN, ARCHIVES LA PRESSE

Fernand Boissonneault, 91 ans, a été piégé par des fraudeurs qui ont utilisé l’intelligence artificielle pour clôner la voix de son fils.

Un appel téléphonique contenant une voix très réaliste de son fils prétendument détenu par les policiers a failli pousser un homme de Trois-Rivières à payer une fausse caution de 5800 $ à des fraudeurs le mois dernier. Il s’agit potentiellement d’un cas d’hypertrucage mené avec l’IA. Cela démontre une fois de plus que la technologie de l’IA évolue très rapidement et a maintenant le pouvoir d’influencer des comportements bien réels, dit Benjamin Prud’homme, vice-président, Politiques publiques, Société et Affaires mondiales de Mila-Institut québécois d’intelligence artificielle. « Les exemples se comptent maintenant par milliers. Avec l’IA générative, on peut créer des vidéos, de l’audio… Ça veut dire que quelqu’un peut créer de faux messages, rendre la fraude plus efficace, créer des textes, créer de fausses images qui montrent des choses explosives politiquement. L’urgence [de réglementer l’IA] a décuplé », dit-il.

Lisez « Hypertrucage audio : Berné par la fausse voix de son fils »

2024, année charnière

PHOTO DENIS BALIBOUSE, ARCHIVES REUTERS

Le sujet de l’intelligence artificielle s’est imposé au Forum économique mondial qui s’est tenu à la mi-janvier à Davos, en Suisse.

M. Prud’homme remarque que 2023 a vu une forte accélération de la priorité des gouvernements quant à la réglementation de l’IA, laissant présager un moment charnière pour 2024 et 2025. « La loi sur l’IA de l’Union européenne s’en vient, les États-Unis ont adopté un ordre exécutif de la Maison-Blanche en octobre dernier, et le Canada est en train d’élaborer une loi sur l’IA, donc ça bouge. » Les technologies d’IA présentent des avantages, notamment pour améliorer le système de santé et faire face à la crise climatique, dit-il. « Mais comme elles posent aussi des risques sur des enjeux de sécurité nationale, on ne peut plus les ignorer. Plus les capacités des systèmes d’IA augmentent, plus les occasions et les risques augmentent également. »

Courir après l’innovation

PHOTO STEVE MARCUS, ARCHIVES REUTERS

Le vice-président de Samsung Electronics Co., Han Jong-hee, discute des technologies liées à l’intelligence artificielle lors d’une conférence de presse au Consumer Electronics Show (CES) de Las Vegas le 8 janvier dernier.

Pierre Larouche, professeur à la faculté de droit de l’Université de Montréal, note que les gouvernements donnent l’impression d’être à la traîne par rapport à l’évolution technologique, et de chercher à montrer aux citoyens qu’ils sont au fait de ce qui se passe. « Bien que nous ne soyons pas dans un vide juridique total, le cadre actuel est loin d’être prêt à appliquer efficacement des régulations à l’intelligence artificielle (IA) », dit-il. Il remarque que des intérêts commerciaux souhaitent avoir la plus grande marge de manœuvre possible. « Un élément du cadre juridique qui pourrait être rapidement adapté est la responsabilité civile, dit M. Larouche. Envoyer un message clair aux entreprises travaillant sur ces services qui indiquerait que négliger les régulations pourrait entraîner des conséquences financières graves. »

Réglementer comme des pharmaceutiques ?

PHOTO KIRILL KUDRYAVTSEV, ARCHIVES AGENCE FRANCE-PRESSE

La réglementation est demandée par l’industrie elle-même, ce qui montre qu’elle n’est pas capable de s’autoréguler, affirme Pierre Larouche, professeur à la faculté de droit de l’Université de Montréal.

M. Larouche donne l’exemple de l’industrie pharmaceutique, qui est très encadrée, avec certains médicaments puissants vendus uniquement sur ordonnance. « L’industrie pharmaceutique sait qu’une sortie précipitée d’un produit peut entraîner des conséquences graves sur le plan financier, conséquences qui peuvent se chiffrer dans les milliards de dollars. Avec l’IA, les risques pourraient être encore plus importants, incitant les entreprises à réfléchir davantage à leurs actions. » La réglementation est demandée par l’industrie elle-même, ce qui montre qu’elle n’est pas capable de s’autoréguler, note-t-il. « Cela donne l’impression que les gouvernements sont incapables d’agir, ce qui reflète une certaine indécision. »

Culture à changer

PHOTO DADO RUVIC, ARCHIVES REUTERS

Des produits sont parfois lancés sans considération suffisante pour les conséquences.

Jusqu’ici, le projet de loi devant le Parlement canadien semble manquer d’incitations pour pousser l’industrie à changer, dit M. Larouche. « C’est une industrie qui est souvent laissée à elle-même, qui expérimente et voit ce qui fonctionne. » Les limites de cette attitude sont devenues évidentes au cours des dernières années avec les réseaux sociaux, où des produits sont parfois lancés sans considération suffisante pour les conséquences. « Le grand défi réside dans le changement de mentalité de l’industrie technologique. Il faut l’inciter à penser aux conséquences de ses actions. Les erreurs doivent avoir des conséquences, et les entreprises doivent agir avec prudence. En ce sens, je ne suis pas certain que le gouvernement canadien soit assez clair sur ce point. »

Ramifications internationales

PHOTO DADO RUVIC, ARCHIVES REUTERS

L’aspect mondial de l’IA fait en sorte qu’il doit être réglementé le plus possible à l’international.

L’aspect mondial de l’IA fait en sorte qu’il doit être réglementé le plus possible à l’international, note Benjamin Prud’homme. « Ça va prendre une entente internationale et des réglementations nationales. Sinon, il pourrait y avoir de l’évasion de l’IA, un peu comme l’évasion fiscale. Il y a tout l’aspect géopolitique. Si la Chine et les États-Unis ne font pas partie de l’équation, cela va avoir moins d’impact. » Une conférence sur l’IA et les droits de la personne organisée par l’ONU doit se tenir en février, note-t-il. « L’ONU devra faire beaucoup de compromis pour que les près de 200 pays soient d’accord. La négociation internationale, c’est long. En parallèle, les États-nations doivent aller de l’avant. L’UE peut élever la barre. Les géants américains de l’IA devront se conformer à ce que l’UE décidera s’ils veulent pouvoir rejoindre ce marché de 400 millions de personnes. Donc ça pourrait en faire bénéficier tout le monde, même si ça ne réglera pas tous les problèmes. »

L’intelligence de Yoshua Bengio

PHOTO HUGO-SÉBASTIEN AUBERT, ARCHIVES LA PRESSE

Le professeur titulaire à l’Université de Montréal et fondateur et directeur scientifique de Mila, l’Institut québécois d’intelligence artificielle, Yoshua Bengio


Hélène David
Hélène David Collaboration spéciale

Je ne suis pas journaliste, encore moins spécialisée en intelligence artificielle. Mais j’ai rencontré Yoshua Bengio et j’ai maintenant peur. Je suis sortie bouleversée par notre échange au cours duquel il m’a confié ses raisons d’être très préoccupé par les développements récents de l’IA.

Publié à 0h49 Mis à jour à 9h00

Partager

Yoshua Bengio a éveillé ma curiosité et mon intérêt quand il a commencé, il y a quelques mois, à prendre la parole publiquement. J’ai été surprise qu’un chercheur de sa notoriété décide d’exprimer publiquement ses inquiétudes sur des enjeux très sérieux, risquant de faire face à de forts vents contraires.

Les tourments du célèbre chercheur sont d’un ordre bien particulier. Yoshua Bengio est un spécialiste en IA reconnu mondialement. Professeur titulaire à l’Université de Montréal, fondateur et directeur scientifique de Mila – Institut québécois d’intelligence artificielle, il est le chercheur le plus cité en informatique à l’échelle mondiale. Il est aussi le lauréat du prix Turing en 2018, « le prix Nobel de l’informatique », aux côtés de Yann Le Cun et de Geoffrey Hinton. Sa feuille de route impressionne.

Yoshua Bengio n’est pas une personne exaltée, spectaculaire, qui fait dans l’exagération. Il a gravi les échelons de la recherche en atteignant une reconnaissance mondiale pour ses travaux sur l’apprentissage profond. Il a le parcours admirable d’un chercheur brillant.

Puis arrive ChatGPT. D’abord peu préoccupé par les performances de ce nouveau système d’IA, il devient cependant de plus en plus inquiet : ce nouvel outil se révèle beaucoup plus performant que ce à quoi il s’attendait. Et d’autres chercheurs confirment ses craintes.

L’IA est en train de devenir un outil tellement puissant qu’il pourrait bientôt faire autant de bien… que de mal. Il pourrait influencer les processus démocratiques, les marchés boursiers, lancer des cyberattaques ou favoriser des manœuvres créant carrément une menace pour notre survie, souligne le chercheur. Rien de moins.

J’ai voulu le rencontrer avec une question en tête : comment porte-t-on sur nos épaules la responsabilité et le sentiment de devoir agir et parler d’enjeux potentiellement aussi dramatiques ?

Pendant notre conversation, il répète plusieurs fois le mot « mission ». Il se demande si la trajectoire des travaux qu’il a faits jusqu’à maintenant est bénéfique ou, au contraire, pourrait conduire à d’éventuelles utilisations malveillantes. Il s’inquiète de la direction que prend la recherche sur l’IA et est d’avis que des changements importants sont nécessaires.

Yoshua Bengio se montre humble quand il admet avoir été un peu myope devant la rapidité du développement de l’IA et même de s’être trompé. Il faut se prémunir contre les dangers qu’elle représente maintenant, m’expliquera-t-il plusieurs fois, et c’est peut-être urgent, car l’horizon des avancées à venir est incertain. C’est dorénavant son cheval de bataille.

Le chercheur a donc remis en question son rôle, son emploi du temps et même les orientations de ses recherches. Il ne peut plus ignorer les conséquences de ses constatations, même si elles lui imposent d’intervenir publiquement plus fréquemment. Il le fait parce qu’il ressent la responsabilité d’agir, et ce, même si c’est inconfortable et cela signifie de sortir de sa quiétude de chercheur admiré pour carrément se transformer en lanceur d’alerte.

Mon cerveau a du mal à assimiler l’étendue des dommages possibles, mais je sais que pour remettre ainsi en question le travail de toute une vie, il faut une force extraordinaire et un sens moral hors du commun. Sa détermination tranquille, sa puissance de conviction et la profondeur de ses propos ne me laissent aucun doute sur l’énergie qu’il continuera à déployer pour convaincre les décideurs d’agir pour imposer des balises au développement et à l’utilisation de l’intelligence artificielle.

Et la détermination dont il fait preuve, si elle trouve un écho, peut encore nous permettre de rester sur la bonne voie.

Il faut éviter, m’explique-t-il sans détour, que voie le jour, peut-être dans une entreprise privée ou un État voyou, une IA dangereuse comme si les humains en perdaient le contrôle ou décidaient de l’utiliser à des fins malveillantes, y compris même l’objectif que l’IA remplace l’humanité.

Si nous sommes confrontés à un ennemi qui semble en voie de devenir plus intelligent que l’humain, il semble logique, m’explique Yoshua Bengio, de ralentir les avancées non sécuritaires et de développer rapidement, entre laboratoires choisis de pays démocratiques, une structure d’intelligence artificielle à visées bienveillantes qui pourra elle aussi surpasser l’intelligence humaine, mais sera en mesure de nous défendre au besoin. Une sorte de contre-système axé sur les valeurs démocratiques et les droits de la personne, sous la gouverne d’une entité comme les Nations unies. Pour nous battre à armes égales, avec un encadrement national et international efficace et solide.

Je reste saisie par toute l’inquiétude et la portée de la réflexion de ce grand chercheur québécois. Il est conscient que la route sera parsemée d’embûches et que les signaux d’alarme qu’il envoie seront souvent ignorés, surtout lorsque l’on sait que les retombées économiques de l’IA se comptent au moins en milliers de milliards de dollars.

Mais il continue.

Yoshua Bengio est un lanceur d’alerte courageux et lucide, un citoyen du monde épris de justice sociale, qui sent le besoin urgent de travailler pour le bien-être, et même potentiellement pour la survie, de l’humanité.

S’il a admis que, jusqu’en 2023, il a été myope, ses yeux sont désormais grands ouverts et sa parole est bien présente.

Nous ne pouvons plus nous permettre de l’ignorer.

1 « J'aime »

Intelligence artificielle Nos élus doivent savoir de quoi on parle !

PHOTO EDOUARD PLANTE-FRÉCHETTE, LA PRESSE

Le premier ministre François Legault au Salon bleu de l’Assemblée nationale, mercredi


Alexandre Sirois
Alexandre Sirois La Presse

Brève question à choix de réponse sur l’intelligence artificielle pour commencer cette chronique.

Publié à 0h56 Mis à jour à 5h35

Partager

Préférez-vous qu’au Québec, nos élus sachent de quoi il s’agit et comprennent les multiples enjeux liés à son développement ou préférez-vous que l’intelligence artificielle (IA) soit du chinois pour eux ?

La réponse est évidente.

Les changements provoqués par l’IA dans plusieurs secteurs de notre société s’annoncent substantiels. Les gérer, c’est la mission de nos élus. Mais ils doivent pour commencer savoir de quoi on parle.

Heureusement, il existe une façon très simple de s’en assurer : il suffit de les former.

Humble suggestion de ma part à nos élus, qui ont recommencé à siéger mardi à l’Assemblée nationale : dépêchez-vous !

Il n’est pas trop tard, mais il n’est pas non plus très tôt.

L’idée a été lancée la semaine dernière par le scientifique en chef du Québec, Rémi Quirion.

Il participait à une discussion dans le cadre du lancement de la programmation 2023-2028 de l’Observatoire sur les impacts sociétaux de l’IA et du numérique (OBVIA), à laquelle j’ai assisté, tout comme de nombreux chercheurs.

Il a rappelé que les élus de tous les partis à Québec ont été formés l’an dernier sur la question des changements climatiques.

« Il faut faire la même chose sur l’intelligence artificielle », a-t-il dit.

PHOTO EDOUARD PLANTE-FRÉCHETTE, ARCHIVES LA PRESSE

Rémi Quirion, scientifique en chef du Québec

C’est encore un gros défi au gouvernement du Québec. Dans la majorité des ministères, on veut utiliser l’IA, mais il reste qu’on ne sait pas toujours pourquoi.

Rémi Quirion, scientifique en chef du Québec

On ne parle pas ici d’une formation pointue. Ministres et députés ont besoin de comprendre l’a b c de l’intelligence artificielle.

Il a en tête une formation de quelques heures « pour être capable d’expliquer la base. C’est quoi, l’intelligence artificielle ? C’est quoi, les algorithmes ? De mieux comprendre les biais que les algorithmes peuvent apporter sur les bases des données utilisées, etc. », m’a-t-il expliqué.

Il est presque certain que nos politiques publiques vont à l’avenir, chaque année davantage, être influencées par les développements en intelligence artificielle.

En éducation, par exemple, on ne peut déjà plus faire abstraction des changements que l’IA générative provoque tant du côté des apprentissages que de leur évaluation.

« C’est vrai, dans le futur, ça va avoir un impact dans tous les secteurs, sur toutes les politiques publiques, a confirmé le scientifique en chef du Québec. Même que dans le futur, tu vas te faire aider par un robot conversationnel pour écrire un projet de loi. Ça se fait probablement déjà. »

PHOTO ALAIN ROBERGE, ARCHIVES LA PRESSE

Une classe à l’Université de Montréal

J’ai aussi interpellé à ce sujet Luc Sirois, le directeur général du Conseil de l’innovation du Québec. Je n’étais pas étonné : il estime lui aussi qu’il importe de former nos élus. Il ne déplore pas, toutefois, l’état actuel de leurs connaissances.

« On est tous pris au dépourvu, avec un manque de connaissances. Moi-même, comme innovateur en chef, c’est une des premières fois que la vitesse de développement est plus rapide [pour moi] que la vitesse d’absorption », m’a-t-il expliqué.

PHOTO MARCO CAMPANOZZI, ARCHIVES LA PRESSE

Luc Sirois, innovateur en chef du Québec

Les nouveaux outils deviennent meilleurs plus vite qu’on est capables de savoir qu’ils existent.

Luc Sirois, directeur général du Conseil de l’innovation du Québec

Il y a selon lui deux raisons principales pour lesquelles nos élus doivent être au courant de l’intelligence artificielle et de ses impacts.

Premièrement, ce sont eux qui sont responsables de son encadrement. « Comment on veut utiliser l’IA, qu’est-ce qu’on veut encourager et qu’est-ce que ça doit respecter ? », résume-t-il.

Deuxièmement, ces élus vont avoir un impact majeur sur le déploiement de l’intelligence artificielle dans plusieurs domaines.

« Je donne l’exemple du service à la clientèle, dit-il. Si on peut aider à avoir un meilleur accès aux services des gouvernements pour différents volets : par exemple, un meilleur accompagnement des élèves pour le tutorat, un meilleur accompagnement des élèves dans des parcours particuliers… Si on peut utiliser ces technologies-là pour le bien de l’humanité dans chacun des secteurs des élus, on va en sortir gagnants. »

J’ajoute qu’on a la chance, au Québec, d’avoir une expertise remarquable dans le domaine de l’intelligence artificielle. Nos élus n’auront pas à chercher bien loin pour trouver des spécialistes en mesure de les former. Ils vont avoir l’embarras du choix.

Par ailleurs, si les élus ont pu bénéficier d’une formation sur les changements climatiques, c’est… qu’ils l’ont réclamée !

Après avoir reçu une proposition de formation de la part d’un groupe de scientifiques québécois, les députés ont adopté une motion à ce sujet à l’unanimité à l’Assemblée nationale en décembre 2022.

Alors place à l’intelligence artificielle ?

L’an dernier, le Parti libéral avait déposé une demande de mandat d’initiative pour que l’Assemblée nationale en discute de façon transpartisane, mais elle a, hélas, été rejetée (le ministre Pierre Fitzgibbon a demandé en avril 2023 au Conseil de l’innovation du Québec de lancer une réflexion collective sur l’encadrement de l’IA – riche idée, mais qui n’a pas d’impact sur l’étendue des connaissances des élus).

Ne perdons plus de temps.

La balle est dans votre camp, chers députés.

Intelligence artificielle et sécurité nationale « C’est urgent de légiférer », prévient Yoshua Bengio

PHOTO OLIVIER JEAN, ARCHIVES LA PRESSE

Yoshua Bengio, professeur au département d’informatique et de recherche opérationnelle de l’Université de Montréal et directeur scientifique de Mila

(Ottawa) Les législateurs mettent carrément la sécurité nationale à risque en tardant à adopter le projet de loi visant à encadrer le développement et l’utilisation de l’intelligence artificielle, estime le professeur Yoshua Bengio, expert et sommité internationale en la matière.

Publié à 2h05 Mis à jour à 5h42

Partager


Joël-Denis Bellavance
Joël-Denis Bellavance La Presse

Selon lui, les élus doivent comprendre que la vitesse à laquelle évolue le développement de l’intelligence artificielle est telle qu’ils sont engagés dans une véritable course contre la montre pour adopter les garde-fous réglementaires essentiels pour éviter que cette avancée technologique tombe entre les mains d’acteurs malveillants.

« Grouillez-vous ! Grouillez-vous, parce qu’on va payer collectivement le prix de l’inaction. »

M. Bengio va livrer ce message sans équivoque ce lundi devant le comité permanent de l’industrie de la Chambre des communes qui examine le projet de loi C-27 visant notamment à réglementer l’utilisation de l’intelligence artificielle.

Dans un avenir pas très lointain, l’intelligence artificielle atteindra des niveaux de compétences cognitives comparables à ceux des humains dans plusieurs domaines. Certes, cela ouvre des perspectives prometteuses dans de nombreux secteurs, notamment la santé, l’environnement et la productivité. Mais il importe d’encourager toute cette innovation en limitant les risques et les préjudices à la société.

Il faut que les législateurs se dépêchent de conclure parce que la technologie avance vite et ça prend du temps pour mettre en œuvre les garde-fous réglementaires.

Yoshua Bengio, directeur scientifique de Mila

« La technologie évolue vite, et les mauvaises utilisations pourraient arriver sans que l’on crie gare. C’est urgent de légiférer », a affirmé M. Bengio dans une entrevue avec La Presse avant son témoignage tant attendu.

Des exemples ? Les technologies soutenant l’intelligence artificielle pourraient se retrouver entre les mains de terroristes ou d’agents étrangers pour mener des attaques et des cyberattaques ou pour fabriquer des armes létales et dangereuses.

Encadrement

Si, dans la présente mouture, les législateurs ont surtout mis l’accent sur la protection des consommateurs, il faut y inscrire aussi des risques à la sécurité nationale, selon M. Bengio, qui est professeur au département d’informatique et de recherche opérationnelle de l’Université de Montréal et directeur scientifique de Mila.

« L’encadrement de l’utilisation de l’intelligence artificielle, ça devient un enjeu de sécurité nationale pour les pays démocratiques. Il faut que, dans la liste des risques à haut impact, on rajoute dans la loi les items de sécurité nationale. Et ce sont des risques qui arrivent avant même le déploiement commercial de l’intelligence artificielle. Il faut que la loi s’applique aux développeurs pendant tout le processus et la durée du développement », a argué l’expert.

D’où l’importance, selon lui, que le gouvernement fédéral donne aux régulateurs de l’intelligence artificielle la souplesse nécessaire pour ajuster le tir rapidement au besoin dans « un cadre agile » afin de bien protéger le public. C’est d’ailleurs un des amendements qu’il compte proposer aux élus qui sont membres du comité parlementaire lundi.

Il y a une chose que je trouve dommage dans la proposition actuelle, c’est qu’il faudrait attendre pratiquement deux ans après que la loi est passée avant que les règlements entrent en vigueur.

Yoshua Bengio, directeur scientifique de Mila

« On a déjà des problèmes avec les deep fakes, par exemple, pour influencer les élections, et la technologie peut bouger vite. Dans le projet de loi, il y a déjà un certain nombre d’éléments de base qui pourraient être mis en œuvre tout de suite dès la sanction royale », a-t-il souligné.

Responsabilisation

L’expert, qui a déjà témoigné devant un comité du Congrès américain, fait aussi sienne l’idée proposée par d’autres collègues universitaires de créer un registre, comme les autorités américaines sont en voie de le faire.

PHOTO ROBERT SKINNER, ARCHIVES LA PRESSE

« Le fardeau de démontrer qu’un système est sécuritaire devrait être sur les compagnies qui les fabriquent », estime M. Bengio.

Un tel registre imposerait aux grandes entreprises qui œuvrent dans ce secteur et qui fabriquent des systèmes d’une forte puissance de calcul (par exemple, 10⁠26 opérations par seconde) de le déclarer aux autorités gouvernementales en fournissant les explications de leur système et les mesures de sécurité qu’ils ont adoptées pour éviter « les risques excessifs ».

Selon Yoshua Bengio, cet outil obligerait les entreprises à une forme de responsabilisation. Aucune entreprise canadienne ne tomberait sous le coup du registre aujourd’hui tandis qu’il y en aurait deux dans le monde, dont une aux États-Unis. Mais dans les 12 prochains mois, il pourrait y en avoir une poignée et « il faut bien qu’on commence quelque part et qu’on mette cela comme balises. On pourrait utiliser les mêmes critères que les Américains car de toute façon, on veut s’harmoniser avec les Américains ».

Aux yeux de M. Bengio, la création d’un registre constitue un outil important pour protéger la sécurité nationale. « On obtient une forme d’imputabilité des entreprises. Mais c’est aussi une façon d’assurer une plus grande sécurité nationale. Le fardeau de démontrer qu’un système est sécuritaire devrait être sur les compagnies qui les fabriquent. Ça ne devrait pas être le gouvernement qui doit faire la recherche pour vérifier que les systèmes des compagnies sont sécuritaires. »

1 « J'aime »

Nouveau logiciel d’OpenAI Des vidéos à couper le souffle générées par l’IA

IMAGE OPENAI (GÉNÉRÉE PAR L’INTELLIGENCE ARTIFICIELLE), FOURNIE PAR THE NEW YORK TIMES

Cette image est tirée d’une vidéo de synthèse générée par le système Sora, d’OpenAI.

(San Francisco) En avril, la jeune pousse new-yorkaise Runway AI a dévoilé un logiciel permettant de générer des vidéos – comme une vache célébrant son anniversaire ou un chien parlant au téléphone – juste en tapant une phrase sur un ordinateur.

Publié à 1h04 Mis à jour à 7h00

Partager

Cade Metz The New York Times

Les vidéos de quatre secondes étaient floues, hachurées, déformées et troublantes. Mais elles montraient clairement qu’on n’était pas loin de technologies d’intelligence artificielle (IA) produisant des vidéos très convaincantes.

À peine 10 mois ont passé et l’entreprise OpenAI, de San Francisco, vient de dévoiler un système similaire qui crée des vidéos dont la qualité est digne d’Hollywood. Les courtes séquences – créées en quelques minutes – montrent des mammouths laineux marchant dans une prairie enneigée, un monstre contemplant une bougie en train de fondre et une scène de rue à Tokyo qui semble filmée par une caméra survolant la ville.

Selon OpenAI, pour créer cette vidéo, on aurait fourni à Sora la description suivante : « Une femme élégante qui marche dans une rue de Tokyo remplie de néons lumineux et de panneaux de signalisation animés. Elle porte une veste en cuir noire, une longue robe rouge, des bottes noires et un sac à main noir. Elle porte des lunettes de soleil et du rouge à lèvres rouge. Elle marche avec assurance et décontraction. La rue est humide et réfléchissante, ce qui crée un effet de miroir avec les lumières colorées. De nombreux piétons se promènent. »

OpenAI, à l’origine du robot conversationnel ChatGPT et du générateur d’images fixes DALL-E, fait partie d’une multitude d’entreprises qui s’efforcent d’améliorer ce type de générateur de vidéos instantanées. Par exemple la jeune pousse Runway et des géants technos comme Google et Meta (Facebook et Instagram). Cette technologie pourrait accélérer le travail des cinéastes d’expérience, tout en supplantant totalement les jeunes artistes numériques.

Elle pourrait aussi être un outil rapide et bon marché pour créer de la désinformation en ligne, rendant plus difficile encore de distinguer le vrai du faux sur l’internet.

« L’impact potentiel d’une telle chose sur une élection serrée me terrifie complètement », affirme Oren Etzioni, professeur d’IA à l’Université de Washington et fondateur de True Media, un OSBL voué à débusquer la désinformation en ligne lors des campagnes électorales.

« L’idée d’un potentiel créatif illimité »

OpenAI a nommé son nouveau système Sora (« ciel », en japonais). L’équipe à l’origine du logiciel, dirigée par les chercheurs Tim Brooks et Bill Peebles, a choisi ce nom parce qu’il « évoque l’idée d’un potentiel créatif illimité ».

Selon MM. Brooks et Peebles, Sora n’est pas encore offert au public parce qu’OpenAI s’efforce encore d’en comprendre les dangers. OpenAI limite l’accès à Sora à un groupe restreint d’universitaires et d’autres chercheurs externes qui la mettent à l’épreuve pour en définir de potentiels usages malveillants.

On vise à donner un aperçu de ce qui s’en vient, pour que des utilisateurs puissent voir les capacités de cette technologie et nous faire profiter de leurs observations.

Tim Brooks, chercheur chez OpenAI

OpenAI marque déjà les vidéos produites par Sora de filigranes les identifiant comme générées par l’intelligence artificielle. Mais l’entreprise reconnaît que ces filigranes peuvent être supprimés. Ils peuvent aussi être difficiles à repérer. (Le New York Times a ajouté des filigranes « Généré par l’IA » aux vidéos de cet article.)

Sora est un exemple d’IA générative, capable de générer instantanément texte, images et sons. Comme d’autres machines d’IA générative, Sora apprend en analysant des données numériques, en l’occurrence des vidéos et des légendes décrivant le contenu de ces vidéos.

OpenAI refuse de dire combien de vidéos ont été fournies au système et d’où elles proviennent, mais précise que le contenu comprend des vidéos publiques et des vidéos protégées par le droit d’auteur. L’entreprise en dit peu sur les données utilisées pour former ses technologies, probablement pour conserver son avantage sur la concurrence – et parce qu’elle a été maintes fois poursuivie pour usage de contenu protégé par le droit d’auteur.

(En décembre, le New York Times a intenté un procès à OpenAI et à son partenaire Microsoft pour violation du droit d’auteur sur des contenus d’information liés à des systèmes d’IA.)

Pas toujours parfait

Sora génère des vidéos en réponse à de courtes descriptions comme « un récif corallien magnifique, rempli de poissons colorés et de créatures marines ». Les vidéos peuvent être impressionnantes, mais ne sont pas toujours parfaites et certaines images peuvent être étranges et illogiques. Ainsi, Sora a récemment généré une vidéo de quelqu’un en train de manger un biscuit, mais le biscuit ne rapetissait jamais.

En quelques années, DALL-E, Midjourney et d’autres générateurs d’images fixes se sont améliorés assez pour produire des images presque impossibles à distinguer de véritables photographies. Cela rend la désinformation en ligne plus difficile à détecter ; de nombreux artistes numériques se plaignent d’avoir plus de mal à gagner leur vie.

« On a tous ri en 2022 quand Midjourney a produit ses premières images », dit Reid Southen, un cinéaste numérique du Michigan. « Aujourd’hui, Midjourney met des gens au chômage. »

Cet article a été publié dans le New York Times.

Lisez l’article sur le site du New York Times (en anglais ; abonnement requis)

à Global News

Artificial Intelligence could threaten elections. What is Ottawa doing to regulate it?

We’ve all heard the warnings that Artificial Intelligence (AI) could interfere with democracy.

Now, 20 tech start-ups and giants including Google, Meta, TikTok, and X have signed an accord promising to work together to stop their software from creating deep fakes depicting political candidates.

The companies say they’ll try to detect bogus pictures and videos but won’t ban them.

And it’s still not clear how this largely symbolic pact will be enforced.

David Akin looks at what one Canadian firm is doing with the technology and where Ottawa is at with regulating it.

après le fiasco de la SAAQclic causé par la solution d’authentification du ministère dirigé par Caire :grimacing:

Allons droit au but : les grands modèles de langage sont-ils conscients?

Non. À la base, un modèle de langage est un système qui modélise la distribution des mots dans des textes. La manière dont ces modèles sont actuellement utilisés repose en quelque sorte sur le procédé inverse : proposer des suites plausibles au texte qui leur est soumis. Ce n’est pas de la conscience.

Résumé

Ne vous méprenez pas : les robots conversationnels ne sont pas conscients

Une main tient un téléphone dont l'écran montre le logo de ChatGPT.

ChatGPT est un robot conversationnel basé sur un modèle de langage mis au point par OpenAI.

Photo : Getty Images / AFP / Sebastien Bozon

Publié à 4 h 00 HAE

Le lancement récent du grand modèle de langage Claude 3 a ravivé des discussions au sujet de la conscience de l’intelligence artificielle (IA). Cela est dû en partie au fait que Claude semblait philosopher à propos de sa propre conscience dans des publications virales (Nouvelle fenêtre) et que l’entreprise qui l’a créé, Anthropic, a affirmé (Nouvelle fenêtre) que Claude manifeste des degrés de compréhension et de fluidité « quasi humains ».

Nous avons cru bon de discuter de la supposée « conscience » des grands modèles de langage avec la linguiste Emily Bender. Cette professeure à l’Université de Washington a été désignée par le magazine Time (Nouvelle fenêtre) comme une des 100 personnes les plus influentes du secteur de l’IA l’an dernier.

Mme Bender est la coauteure de l’influent article intitulé « Gravir vers la compréhension du langage naturel : le sens, la forme et la compréhension à l’ère des données (Nouvelle fenêtre) », qui offrait une perspective critique au sujet des implications éthiques, sociales et environnementales des modèles de langage en 2020, soit plus de deux ans avant la sortie de ChatGPT. Elle coanime également le balado Mystery AI Hype Theater 3000 (Nouvelle fenêtre), qui décortique l’emballement à propos de l’IA.


Allons droit au but : les grands modèles de langage sont-ils conscients?

Non. À la base, un modèle de langage est un système qui modélise la distribution des mots dans des textes. La manière dont ces modèles sont actuellement utilisés repose en quelque sorte sur le procédé inverse : proposer des suites plausibles au texte qui leur est soumis. Ce n’est pas de la conscience.

Emily Bender parle devant la caméra d'un ordinateur. Elle porte des écouteurs et des lunettes.

Dans ses recherches, Emily Bender s’intéresse notamment à la linguistique informatique.

Photo : YouTube / Emily Bender

Y a-t-il une nuance entre le fait de parler, d’une part, de conscience et, d’autre part, de choses comme l’intelligence ou la compréhension?

Publicité

Ce sont tous des concepts différents et mal définis. Si nous voulons parler de compréhension, nous devons la définir : dans mon travail universitaire, je définis la compréhension du langage comme la mise en correspondance entre le langage et des concepts à l’extérieur du langage.

Une grande partie du tour de passe-passe des grands modèles de langage, c’est que tout n’est que du langage. Quand le modèle semble comprendre, en réalité, c’est la personne qui l’utilise qui fait tout le travail de compréhension et tout le travail de création de sens.

Lorsqu’on entre du texte dans un grand modèle de langage et que du texte en ressort, on donne du sens à ce texte de la même manière qu’on donne du sens à un texte provenant d’une personne : on s’imagine un esprit doté d’une intention communicative à l’origine de ce texte.

Lorsqu’il s’agit d’une autre personne, ce n’est pas faux d’imaginer un esprit. On pourrait se tromper quant à son intention communicative, mais souvent, nous sommes assez bons pour la deviner correctement. Lorsqu’il s’agit d’un grand modèle de langage, il n’y a pas du tout d’esprit, donc nous créons nous-mêmes cette compréhension.

Cet article a initialement été publié dans l’édition du 9 mars de l’infolettre des Décrypteurs. Pour obtenir des contenus exclusifs comme celui-ci ainsi que des analyses sur tout ce qui touche la désinformation web, abonnez-vous en cliquant ici.

Vous avez inventé le terme « perroquet stochastique » pour décrire les grands modèles de langage. Pouvez-vous expliquer ce que cela signifie?

Publicité

Dans l’expression « perroquet stochastique », le mot « perroquet » fait référence au verbe parroting en anglais, qui signifie « répéter sans comprendre ». Le but ici n’est pas d’insulter les perroquets, qui sont de merveilleuses créatures avec leur propre vie intérieure! (Rires)

« Stochastique » signifie « aléatoire », selon un calcul de probabilités. Ainsi, lorsque les grands modèles de langage sont utilisés pour produire du texte, nous les utilisons pour distribuer les mots les plus probables dans une situation donnée pour ensuite les choisir aléatoirement. Mais tous les mots n’ont pas une chance égale d’être choisis : certains sont plus susceptibles de sortir que d’autres.

Qu’y a-t-il de dangereux ou de risqué dans le fait de croire que les grands modèles de langage sont conscients?

Sur le plan individuel, si nous tombons dans l’idée selon laquelle les modèles de langage pensent, raisonnent, sont conscients, ont des idées et ont accès à beaucoup d’informations, nous nous prédisposons à voir de mauvaises informations comme s’il s’agissait de bonnes informations, et cela peut être nuisible. Imaginez quelqu’un qui demande des conseils médicaux à ChatGPT et qui suit ces conseils ou quelqu’un qui suit une recette générée par l’IA qui affirme que du poulet doit être cuit saignant.

Sur le plan sociétal, nous voyons beaucoup de suggestions selon lesquelles les robots conversationnels pourraient être utilisés comme des enseignants-robots, des thérapeutes-robots, des avocats-robots ou des médecins-robots. Cela ne fonctionnera tout simplement pas. Mais si suffisamment de gens croient que cela pourrait fonctionner, nos gouvernements pourraient s’en sortir en comblant les trous dans le filet social avec des systèmes qui ne devraient pas servir à cela.

Pourquoi les gens de l’industrie de l’IA utilisent-ils un vocabulaire qui prête des caractéristiques humaines aux modèles de langage alors qu’ils comprennent très bien comment ces systèmes fonctionnent?

C’est un phénomène intéressant, n’est-ce pas? Certaines personnes sont réellement tombées dans ce type de raisonnement, alors que d’autres semblent le faire. Commençons par celles qui semblent le faire : les entreprises qui construisent ces modèles ont certainement intérêt à ce que le public pense que ceux-ci sont beaucoup plus puissants qu’ils ne le sont. Ça facilite leur vente.

Sinon, je pense que les ingénieurs qui les ont conçus, en général, ne sont pas linguistes, donc ils ne sont pas sensibles à la manière dont fonctionne le langage. Lorsque le système dit quelque chose qui semble impressionnant – par exemple, s’il semble affirmer sa propre conscience –, cela semble trop impressionnant pour être le fruit du hasard. Ils ne prennent pas le recul nécessaire pour constater qu’ils sont ceux qui donnent un sens à ce langage.

Et il y a aussi la possibilité que les gens qui construisent ces modèles veulent tout simplement croire qu’ils ont créé quelque chose de vraiment, vraiment cool.


Decrypteurs. Marie-Pier Élie, Jeff Yates, Nicholas De Rosa et Alexis De Lancer.

Intelligence artificielle Que reste-t-il de la vérité ?

Les outils d’intelligence artificielle, par leur capacité à imiter la réalité, vont rendre encore plus complexe la quête d’informations crédibles et risquent d’accélérer un processus « d’érosion de la vérité » déjà bien entamé avec des répercussions sociales considérables. Renverser la tendance ne sera pas une mince tâche.

4 articles sur le sujet
Publié à 5h00

Résumé

Au-delà du réel

IMAGES GÉNÉRÉES PAR L’INTELLIGENCE ARTIFICIELLE, PHOTOMONTAGE LA PRESSE

Le photomontage a été produit à partir d’images générées par La Presse en utilisant le programme d’intelligence artificielle DaVinci AI et les mots-clés indiqués.

Le photographe Marc Montplaisir se passionne depuis des années pour les ambrotypes, des photos produites avec un procédé photographique complexe datant du XIXe siècle qu’il utilise parfois pour faire de singuliers portraits de personnalités connues.

Publié à 5h00

Partager


Marc Thibodeau
Marc Thibodeau La Presse

C’est donc avec enthousiasme qu’il a découvert à la fin de 2022 une série de portraits présumés de Londoniens qui avaient échappé à son attention.

« J’ai été confondu pendant 10 minutes avant de me rendre compte que c’était fait avec Midjourney », souligne le professionnel en évoquant un populaire programme d’intelligence artificielle permettant de générer des photos à partir de directives écrites.

IMAGE GÉNÉRÉE PAR L’INTELLIGENCE ARTIFICIELLE

Cette image, générée par l’intelligence artificielle, fait partie d’une série de portraits présumés de Londoniens diffusés en 2022.

« J’étais à moitié époustouflé, à moitié terrorisé », note M. Montplaisir, qui a lui-même expérimenté par la suite le programme pour faire ses propres ambrotypes « artificiels ».

Il a notamment fait produire une série de portraits montrant des danseuses de l’opéra de Paris à l’occasion de l’inauguration de la tour Eiffel qui sont criants de vérité.

M. Montplaisir, qui fait de la photo publicitaire, s’est aussi exercé à générer avec l’intelligence artificielle des images léchées, notamment un flamboyant jeune couple de voyageurs émergeant d’un avion.

1/3

Des résultats là encore comparables à ceux qu’il pourrait obtenir en réalisant une vraie séance de photographie, autrement plus coûteuse, avec des mannequins et le personnel de soutien requis.

Les agences de publicité sont partagées quant à l’opportunité d’utiliser la technologie, indique M. Montplaisir, qui trouve « très anxiogène » de voir que l’intelligence artificielle pourrait le priver d’une partie de son gagne-pain.

PHOTO MARTIN CHAMBERLAND, LA PRESSE

Marc Montplaisir, photographe

Tout ça devient très confondant.

Marc Montplaisir, photographe

Le néophyte aura encore plus de mal à voir clair dans le déluge annoncé d’images de toute nature, ce qui risque d’avoir des conséquences importantes sur la manière dont les gens s’informent et construisent leur vision du monde.

Serge Cabana, chargé de cours en communications rattaché à l’Université de Sherbrooke, note que « plus personne ne pourra à l’avenir regarder une photo sans se demander si elle est vraie ou fabriquée ».

La même dynamique risque aussi de s’appliquer aux enregistrements audio et même aux vidéos à mesure que la technologie se raffine, un processus déjà bien avancé.

PHOTO FOURNIE PAR SERGE CABANA

Serge Cabana, chargé de cours en communications rattaché à l’Université de Sherbrooke

C’est un repère collectif important qui se perd. Et quand on perd nos repères collectifs, on perd du même coup notre capacité à se parler.

Serge Cabana, chargé de cours en communications rattaché à l’Université de Sherbrooke

M. Cabana explore plus largement le problème dans un ouvrage paru en 2022 intitulé Qui me dira la vérité ?.

Une longue érosion

Les interrogations relatives à la « post-vérité » ou « l’érosion de la vérité » – un terme mis de l’avant notamment par la RAND Corporation dans une longue étude parue en 2018 – ne datent pas d’hier.

L’organisation s’alarmait alors d’un glissement dans les discours politiques et civiques favorisant « l’opinion et les attitudes personnelles » plutôt que l’analyse « de faits et de données ».

Dans un ouvrage paru en 2019 intitulé The Death of Truth (La mort de la vérité), l’auteure Michiko Kakutani, ex-critique littéraire du New York Times, relatait dans cette veine des commentaires de l’ex-président de la Chambre des représentants Newt Gingrich, qui contestait l’idée que la criminalité était en baisse au pays malgré des statistiques claires à ce sujet.

« À titre de candidat politique, je préfère me baser sur ce que les gens ressentent et je vais vous laisser vous débrouiller avec les théoriciens », avait déclaré le politicien républicain pour souligner son mépris des chiffres.

Mme Kakutani identifiait dans son ouvrage le postmodernisme comme l’une des causes originelles importantes de cette évolution.

En affirmant que la connaissance était « filtrée à travers le prisme de la classe, de la race, du genre et d’autres variables », les tenants de cette approche ont rejeté la possibilité d’une réalité objective en lui substituant l’idée de subjectivité.

« La postmodernité a mis 50 ans à pénétrer la conscience collective », remarque Serge Cabana, qui voit son effet dans la perte d’autorité d’institutions traditionnellement centrales comme les médias et les universités.

« Aujourd’hui, tout le monde a le droit à son opinion. L’avis d’un quidam dans la rue qui parle de cosmologie est presque aussi important que celui de Hubert Reeves », ironise-t-il.

Les réseaux sociaux, qui facilitent la diffusion d’informations ou d’opinions par n’importe qui disposant d’un accès à l’internet, ont joué un rôle « d’accélérateur » dans le processus.

Des plateformes comme Facebook, X ou TikTok ont permis à des utilisateurs aux idées similaires de se retrouver en ligne et de former des communautés qui renforcent leurs convictions au sein de « silos d’information » où les voix contradictoires sont rapidement évacuées.

La production des médias traditionnels, affaiblis par les mutations du marché publicitaire, peine à parvenir à une fraction importante d’internautes qui prétendent trouver leurs informations en ligne sur des sites d’origine incertaine.

Les scientifiques n’échappent pas non plus à cette crise de confiance.

Les critiques adressées aux chercheurs en santé publique durant la pandémie de COVID-19 en raison de leurs recommandations changeantes montrent que nombre de personnes ne comprennent pas comment la connaissance scientifique s’établit et progresse, relève Lilian Negura, professeur à la faculté des sciences sociales de l’Université d’Ottawa.

« La science n’est pas une religion », note le chercheur, qui s’alarme de constater que les gens sont de moins en moins placés socialement devant des opinions différentes.

Reportage de l’équipe des Décrypteurs de Radio-Canada

La photographie de presse menacée par l’IA | Décrypteurs

Le photojournalisme fait face à l’un des plus grands défis de son histoire : l’arrivée des générateurs d’images propulsés par l’intelligence artificielle. Jusqu’à quel point ces outils vont-ils bouleverser notre rapport à l’image, et dans quelle mesure le métier de photographe de presse est-il menacé ? Le photojournaliste Ivanoh Demers partage ses réflexions avec Alexis De Lancer des Décrypteurs qui teste Adobe Firefly, un outil de création qui s’appuie sur l’intelligence artificielle.

1 « J'aime »