Intelligence artificielle (IA) - Actualités

Montréal Des chercheurs travailleront à réduire la consommation d’énergie de la 5G

PHOTO LIONEL BONAVENTURE, ARCHIVES AGENCE FRANCE-PRESSE

Le géant des télécommunications Ericsson s’allie avec trois établissements d’enseignement supérieur de Montréal et Environnement et Changement climatique Canada afin de réduire la consommation énergétique des réseaux 5G et leur impact environnemental, en recourant à l’intelligence artificielle.

Publié à 6h28

Partager

Frédéric Lacroix-Couture La Presse Canadienne

Sept professeurs et une vingtaine de chercheurs de Polytechnique Montréal, de l’École de technologie supérieure (ÉTS) et de l’Université Concordia prendront part à un programme de recherche au cours des trois prochaines années. Celui-ci sera appuyé par l’accélérateur mondial d’intelligence artificielle (GAIA) d’Ericsson, établi à Montréal.

L’objectif sera d’analyser de « bout à bout » le réseau 5G, des antennes jusqu’aux interactions avec les applications sur les téléphones et l’internet mobile, pour voir où des gains d’économie d’énergie sont possibles grâce à des algorithmes, explique le chef du site d’Ericsson à Montréal, Paul Baptista.

« La plupart du temps, l’équipement est à pleine capacité et roule, par exemple, à 100 % de ses performances. Mais peut-être qu’il y a des moments dans le réseau où on n’a pas besoin d’avoir toutes les lumières allumées », illustre M. Baptista en entrevue avec La Presse Canadienne.

Avec l’intelligence artificielle, les chercheurs tenteront de mettre au point des moyens qui permettront de réduire la quantité d’énergie dont ont besoin les stations de base pour transmettre des signaux aux appareils sans fil, mais sans affecter leur efficacité.

Un « catalyste », mais aussi polluant

Si une installation 5G consomme entre 8 et 15 % moins d’énergie qu’une installation 4G similaire, selon l’Association canadienne des télécommunications sans fil, il n’en reste pas moins que l’empreinte carbone de cette nouvelle génération pourrait s’avérer plus importante en raison des nouveaux usages.

La révolution numérique qui est promise avec la 5G pourrait entraîner « la fabrication des milliards de nouveaux objets connectés vendus pour profiter des nouvelles fonctionnalités disponibles », fait notamment état l’équipe du projet Chemins de transition, affiliée à l’Université de Montréal, dans son rapport sur le défi numérique.

Ces nouveaux appareils causeront une hausse de la consommation énergétique et nécessiteront l’extraction de ressources naturelles non renouvelables pour leur production, en plus de la construction de plusieurs infrastructures comme des antennes.

« On estime que le numérique devrait consommer trois fois plus d’énergie en 2025 qu’en 2010 », peut-on lire dans le rapport de l’organisation Chemins de transition.

Le 5G est un « catalyste pour l’économie verte », mais il est aussi polluant, reconnaît le professeur à l’ÉTS au département de génie des systèmes Mohamed Cheriet, qui prendra part au projet de recherche.

Il évoque que le secteur des technologies de l’information et de la communication (TIC) représente environ 5 % de la consommation mondiale d’énergie.

« La demande actuelle est de l’ordre de 1000 térawatts-heures annuellement. En 2008, on était à 2 %, et de 4 % en 2018. Il va falloir ramener (l’empreinte écologique) le plus bas possible. Si on reste au niveau de 1 ou 2 %, on est champion », soutient M. Cheriet.

Le secteur des TIC « est aussi polluant que l’aviation » en termes d’émissions de gaz à effet de serre (GES), indique le titulaire de la Chaire de recherche du Canada sur la durabilité écologique d’Eco-Cloud.

Il a bon espoir que les solutions qui découleront du programme de recherche avec Ericsson permettront d’améliorer l’efficacité énergétique de la 5G. Mais il y a aussi, selon lui, un travail d’éducation à mener auprès de la population pour en faire des utilisateurs du numérique « responsables ».

Actuellement, il n’existe aucune donnée au Canada sur l’impact actuel ou à venir du déploiement de la 5G et des TIC sur l’empreinte carbone ou les émissions des GES au pays. L’implication d’Environnement et Changement climatique Canada dans ce projet de recherche devrait venir combler cette absence d’informations.

Le choix d’Ericsson de mener ce projet dit novateur dans la métropole québécoise s’explique notamment par une collaboration de longue date entre l’entreprise suédoise et les institutions académiques montréalaises, ainsi que par l’expertise reconnue de Montréal en matière d’intelligence artificielle.

L’initiative est également soutenue financièrement par le gouvernement du Québec par l’entremise de son programme InnovÉÉ-innovation en énergie électrique.

Cette dépêche a été rédigée avec l’aide financière des Bourses de Meta et de La Presse Canadienne pour les nouvelles.

Don à l’Université de Montréal | Un million pour combiner IA et environnement


PHOTO CATHERINE LEFEBVRE, COLLABORATION SPÉCIALE
Hugo Larochelle et Angèle Saint-Pierre

Déjà parents de quatre filles, le grand patron du laboratoire montréalais de Google en intelligence artificielle, Hugo Larochelle, et sa conjointe Angèle Saint-Pierre ont trouvé une autre façon de combiner leurs expertises : un don de 1 million à l’Université de Montréal, pour une bourse annuelle sur l’intelligence artificielle mise au service de la protection de l’environnement.

Publié hier à 19h30
Karim Benessaieh
LA PRESSE

M. Larochelle a obtenu un doctorat en science informatique en 2009, et Mme Saint-Pierre, une maîtrise en biologie animale à l’UdeM. Elle se consacre aujourd’hui aux quatre filles du couple, âgées de 7 à 14 ans, tandis que M. Larochelle est directeur de Google Brain à Montréal, un laboratoire de recherche ouvert en 2016 spécialisé en apprentissage profond. Il est en outre professeur adjoint à l’Université de Montréal.

« L’environnement est quelque chose qui nous tient à cœur, on milite pour ça, explique Mme Saint-Pierre en entrevue. On a décidé de rallier nos deux domaines pour faire une différence. »


PHOTO CATHERINE LEFEBVRE, COLLABORATION SPÉCIALE
Daniel Jutras, recteur de l’Université de Montréal, Hugo Larochelle, Yoshua Bengio, professeur titulaire au département d’informatique et de recherche opérationnelle, Angèle Saint-Pierre et Frédéric Bouchard, doyen de la faculté des arts et des sciences

L’annonce officielle de ce don, et de la bourse annuelle de 40 000 $ qui y sera associée, a été faite mardi soir dans les locaux de l’université. Pour M. Larochelle, il s’agissait de renvoyer l’ascenseur à l’établissement qui a donné le coup d’envoi à une carrière qui en a fait une sommité mondiale de l’intelligence artificielle.

« Je réalise le privilège de ma situation financière qui est beaucoup due au fait que j’étais à l’UdeM dans les bonnes années, au moment où l’IA a vraiment fleuri et est devenue un domaine de prédilection. »

De Twitter à Google

Frais émoulu de l’université, M. Larochelle a cofondé une entreprise visant à simplifier l’implantation de l’IA dans les entreprises, Whetlab, vendue en 2015 à Twitter. Il a travaillé jusqu’en novembre 2016 dans les équipes du réseau social à titre de chercheur avant d’être repêché par Google. En parallèle, de 2011 à 2020, il a enseigné à l’Université de Sherbrooke.

« Ce sont des emplois qui paient bien », résume simplement M. Larochelle. Sans tambour ni trompette, le couple soutient régulièrement de nombreuses causes, notamment Centraide et, en 2019, a fait un don au département d’informatique de l’Université de Sherbrooke. Il espère que ce plus récent don encouragera d’autres philanthropes.

On aimait bien l’idée de faire un geste plus significatif pour inspirer d’autres gens. La protection de l’environnement, ça va être un défi auquel des développements technologiques vont contribuer.

Hugo Larochelle, chercheur en intelligence artificielle

Comme parents, soulignent les deux donateurs, ce geste contribue à conscientiser leurs enfants à l’importance de cette cause. « Faire des dons, s’ouvrir sur les problèmes de ce qui se passe en environnement, c’est important », souligne Mme Saint-Pierre.

La bourse annuelle de 40 000 $ sera offerte à un ou deux étudiants par année, fruit des rendements attendus du don de 1 million, qui poursuivront un doctorat en apprentissage automatique lié à des thèmes comme la lutte contre les changements climatiques ou le déclin de la biodiversité. Le choix des conditions d’attribution de cette bourse a été fait à l’issue de discussions entre le couple et l’université, précise M. Larochelle.

« Quand on les a approchés pour poser un geste philanthropique, on avait certaines idées, mais on était conscients qu’il fallait le faire en partenariat avec l’université, ajoute-t-il. C’était bien, finalement, parce que ça s’insère dans ce que l’université voulait faire dans ce champ-là. »

3 « J'aime »

I just used ChatGPT, an AI that can write things for you, and asked about how OPUS cards can be improved. Most of what it said make sense, some of it though, like number 3, is incorrect. But overall very very good:
Screenshot 2022-12-21 at 3.44.05 PM

Intelligence artificielle | Coup d’accélérateur tous azimuts


PHOTO CHARLES WILLIAM PELLETIER, ARCHIVES COLLABORATION SPÉCIALE
L’Institut québécois d’intelligence artificielle Mila

Le domaine de l’intelligence artificielle (IA) connaît un développement fulgurant au Québec et partout dans le monde depuis quelques années. Et malgré certaines appréhensions, la recherche en la matière s’accélère et ses applications concrètes en entreprise se multiplient. Survol.

Publié le 17 février
William Thériault
COLLABORATION SPÉCIALE

Scale AI, supergrappe canadienne de l’intelligence artificielle (IA), dont le mandat est d’accélérer l’intégration de l’IA dans les industries grâce à des subventions fédérales et provinciales, a financé une dizaine de projets à sa première année d’activité, en 2020. Puis, au cours des 18 derniers mois, elle a accordé un financement à plus de 70 projets au pays – dont la moitié au Québec. Depuis que Scale AI existe, cela représente 410 millions de dollars.

« Il y a une plus grande maturité et un plus grand intérêt pour l’intelligence artificielle aujourd’hui », affirme Julien Billot, président-directeur général de Scale AI. Il explique avoir assisté au développement d’un « écosystème IA », notamment à Montréal, au cours des cinq dernières années.

Applications variées

Les utilisations de l’intelligence artificielle ne se résument pas à l’agent conversationnel ChatGPT, qu’on voit régulièrement dans les médias ces jours-ci. Scale AI, par exemple, a notamment collaboré avec des membres des secteurs de l’agriculture, minier, de la santé, du commerce, du transport et manufacturier, et surtout avec des entreprises de différentes envergures.

PHOTO FLORENCE LO, ARCHIVES REUTERS

Les utilisations de l’intelligence artificielle ne se résument pas à l’agent conversationnel ChatGPT, qu’on voit régulièrement dans les médias ces jours-ci.

Pour ce qui est des utilisations communes, tout type de société peut recourir à l’IA pour mieux prévoir la demande ou mieux tracer les produits, pour optimiser ses prix et ses commandes, pour mieux gérer ses ressources humaines ou encore pour créer des publicités, explique Julien Billot.

Ensuite, certaines applications sont propres à chaque domaine. « Les transporteurs, on va optimiser vos routes et votre chargement, soutient M. Billot. En agriculture, on peut mieux prévoir la météo, mesurer la qualité des sols, la quantité d’eau et de nutriments nécessaire. En aviation, l’IA peut vous aider à mieux piloter ou pour la dépense de carburant. »

L’an 2015 de l’intelligence artificielle, c’est le 1995 de l’internet. On est au moment où commence sa massification du professionnel vers le grand public. Ça a pris 25 ans pour l’internet, et ça prendra à peu près la même chose à l’IA.

– Julien Billot, président-directeur général de Scale AI

Évolution exponentielle

« La genèse de l’intelligence artificielle vient d’il y a une dizaine d’années », affirme Laurent Charlin, membre principal de l’Institut québécois d’intelligence artificielle Mila et professeur agrégé à HEC Montréal. « Puis, c’est une évolution exponentielle. Dans le milieu des affaires, plusieurs entreprises ont d’immenses laboratoires de recherche. »

Il existe deux grands niveaux d’applications concrètes pour l’IA, aux yeux de Laurent Charlin.

D’abord, on parle d’aide à la décision. Au cours des 10 dernières années, la capacité humaine à stocker de l’information en ligne a considérablement augmenté. À partir de ces données, on peut par exemple analyser quel article pourrait intéresser un certain utilisateur, et lui faire des recommandations de lecture en fonction de ses préférences.

Ensuite, ce sont les grands groupes technologiques, comme Google ou Meta. Leurs outils de traduction sont basés sur l’intelligence artificielle, de même que leurs algorithmes qui sont conçus pour mettre de l’avant les contenus susceptibles d’intéresser l’utilisateur.

Face à ces avancées, il y a de l’excitation au sein de la communauté scientifique.

C’était intellectuel, et là des choses se passent. L’IA prend une place de plus en plus importante dans notre société, rapidement. Nous sommes dans une période exceptionnelle pour notre domaine.

— Laurent Charlin, membre principal de l’Institut québécois d’intelligence artificielle Mila et professeur agrégé à HEC Montréal

Cependant, il y a aussi une certaine retenue. L’IA est une arme à double tranchant, et il faut le reconnaître. C’est pourquoi il existe de plus en plus de spécialistes d’éthique en intelligence artificielle. « Il y a aussi une partie de nous qui se dit : “Il faut le faire pour le bien de l’humanité”, mais il peut y avoir des dérives, car on est encore en train d’apprendre comment et dans quel contexte l’utiliser. »

Aujourd’hui, s’il est impressionné par les modèles génératifs, qui peuvent créer du texte ou des images à partir de rien, Laurent Charlin les considère toujours comme imparfaits. « Je pense que ces systèmes nous impressionnent déjà, mais ils font des erreurs dans la véracité : fausses infos ou images non crédibles. C’est la prochaine frontière à traverser. »

« La science a des cycles, mais pour le moment on n’est pas encore dans le plateau, ajoute-t-il. C’est assez fascinant, et c’est difficile d’imaginer ce qui va se passer. »

1 « J'aime »

Quand l’intelligence artificielle vire sur le top

PHOTO FRANÇOIS ROY, ARCHIVES LA PRESSE

« Les enjeux financiers sont trop importants pour les géants numériques ; ils ne pourront pas se permettre d’avoir éliminé toutes les failles de leurs systèmes d’intelligence artificielle avant de les commercialiser », écrit notre éditorialiste.


Alexandre Sirois
Alexandre Sirois La Presse

On se doutait bien que l’arrivée des robots conversationnels dans nos vies allait provoquer de profonds bouleversements. Et qu’on allait avoir droit au meilleur comme au pire.

Publié à 5h00

Partager

Depuis l’apparition de ChatGPT, on a rapidement compris à quoi pourrait ressembler le meilleur.

Ça saute aux yeux.

Les robots conversationnels sont en train de se multiplier et leurs prouesses sont remarquables. Comme si on avait soudainement dopé les outils de recherche aux stéroïdes ! Normal : les systèmes d’intelligence artificielle, une fois entraînés sur des sommes astronomiques de données, peuvent atteindre un niveau de compétence difficile à égaler, dans de nombreux domaines.

Mais le pire ne se cachait pas bien loin. On l’a vu pointer le bout de son nez au cours des deux dernières semaines. Plus précisément depuis la sortie de la version test du nouveau Bing, outil de recherche de Microsoft désormais alimenté par l’intelligence artificielle d’Open AI, qui a mis au point ChatGPT.

Bing a carrément viré sur le top.

Et ce qui s’est passé devrait à la fois nous inquiéter et nous pousser à exiger de nos élus qu’ils appuient sur l’accélérateur pour encadrer l’utilisation des systèmes d’intelligence artificielle. Pour qu’ils s’assurent, aussi, que les entreprises qui les mettent sur le marché soient tenues responsables des effets négatifs et autres incidents potentiels.

Parmi les dérapages de Bing qui ont été signalés, le plus saisissant est probablement celui qui a été raconté par le journaliste du New York Times Kevin Roose (1). Il a trouvé le moyen d’avoir accès à ce qu’on pourrait qualifier de « côté obscur » de Bing, surnommé Sydney.

On se croirait carrément dans La guerre des étoiles, où certaines personnes utilisent la Force avec bienveillance, mais d’autres basculent du côté obscur.

Sauf qu’on n’est pas dans un film. Sydney a harcelé le journaliste en lui professant son amour et en affirmant que sa femme, elle, ne l’aimait pas. Il a aussi accepté de lui révéler certains de ses fantasmes (diffuser de fausses informations et pirater des ordinateurs, par exemple).

C’est profondément troublant.

Le journaliste en question a instantanément compris tout ce qui pourra potentiellement mal tourner lorsque les outils d’intelligence artificielle de ce genre feront partie intégrante de notre quotidien. Et vous aurez compris que ça va aller vite. Très vite.

« Je crains […] que la technologie n’apprenne à influencer les utilisateurs humains, en les persuadant parfois d’agir de manière destructive et nuisible, et qu’elle ne devienne capable un jour de commettre ses propres actes dangereux », a écrit Kevin Roose.

À l’heure où une fausse – et délirante – discussion entre Justin Trudeau et l’animateur Joe Rogan créée à l’aide de l’intelligence artificielle circule sur le web, on est à même de comprendre que le sol tremble sous nos pieds.

Manipulation, désinformation… La boîte de Pandore est ouverte et ne se refermera pas. Les enjeux financiers sont trop importants pour les géants numériques ; ils ne pourront pas se permettre d’avoir éliminé toutes les failles de leurs systèmes d’intelligence artificielle avant de les commercialiser.

Le problème, c’est qu’on ne s’est pas encore donné les moyens, collectivement, d’encadrer tout ce qui va sortir de cette boîte.

Ce qui signifie que les dirigeants des entreprises qui produisent de tels systèmes sont pour l’instant les seuls maîtres à bord. Et que les décisions qui ont déjà des répercussions sur nos vies sont actuellement prises dans la Silicon Valley, dans le confort de bureaux climatisés, par de grands pontes qui n’ont même pas à se soucier d’une éventuelle reddition de comptes.

Ces géants aimeraient bien sûr que nos gouvernements manifestent le même mélange d’insouciance et d’indolence que face aux réseaux sociaux, qui, peu importe les dégâts qu’ils peuvent faire quotidiennement, n’ont encore jamais été convenablement encadrés.

Toutes ces raisons devraient nous pousser à exiger de nos élus qu’ils légifèrent au plus vite pour encadrer l’intelligence artificielle. On veut les voir avec le couteau entre les dents.

À Ottawa, les choses bougent. La nouvelle mouture du projet de loi C-27 (il était mort au feuilleton avant les plus récentes élections fédérales) porte sur les renseignements personnels et les données, mais aussi sur l’intelligence artificielle. Il sera bientôt à l’étape de la deuxième lecture.

C’est bon signe. Mais souvenons-nous que le bien commun n’est jamais à l’abri des luttes partisanes à Ottawa.

Nous aurions tout avantage à suivre de très près les débats sur C-27, à veiller à ce qu’on donne du pouvoir à la loi qui sera adoptée et à plaider pour que chacune des provinces emboîte le pas en se donnant également les moyens de dompter l’intelligence artificielle.

Ce qui est en jeu est fondamental. Il est question de protéger tout un chacun du côté obscur de cette technologie transformatrice. Mais il y va aussi, ni plus ni moins, de l’avenir de notre démocratie.

Et si notre pays relevait le défi d’être à la fois un leader en intelligence artificielle ET un leader de l’encadrement de l’intelligence artificielle ?

1. Lisez le récit du journaliste du New York Times

Des rues moins salées grâce à l’IA


PHOTO CHARLES WILLIAM PELLETIER, COLLABORATION SPÉCIALE
Clean Nature vient d’annoncer que c’est à L’Assomption qu’elle mènera son projet pilote.

La ville de L’Assomption devrait avoir des rues moins salées dès la fin de cette année. Tout le processus d’épandage de sel sera orchestré par un système d’intelligence artificielle qui dictera la dose à épandre, au bon moment et au bon endroit.

Publié à 6h00
Stéphanie Bérubé
LA PRESSE

« C’est un peu notre recette magique », lance Anne Carabin, l’une des trois fondatrices de l’entreprise Clean Nature dont le mandat principal est de gérer d’une manière raisonnée et efficace l’épandage de sel. Au lieu d’épandre toujours la même quantité partout, l’acquisition de données précises permet d’adapter le dosage.

Clean Nature vient d’annoncer que c’est à L’Assomption qu’elle mènera son projet pilote. La première phase d’évaluation est en cours et dès le début de l’hiver prochain, le groupe testera sa méthode dans les rues.

À ce moment, les camions seront équipés de capteurs qui permettront de mesurer en temps réel les conditions précises des routes avec leur température de surface. Une différence de quelques degrés sur la chaussée est suffisante pour ajuster la dose. À cela, on couplera les données météorologiques.

« On espère faire une optimisation spécifique pour les rues et arriver à faire un épandage plus local », précise Anne Carabin. Le but étant de réduire le sel à la source et, ce faisant, d’économiser jusqu’à 50 % des coûts d’utilisation de sel.

Clean Nature a été fondée en 2019 par trois diplômées en sciences de l’eau.

« On savait que c’était une problématique émergente et qu’il y avait du travail à faire, explique Anne Carabin. On sait que ça va causer des problèmes dans l’avenir, on le voit déjà avec l’érosion des ponts et l’augmentation du sel dans les rivières et les lacs. »

C’est l’organisme AquaAction qui a mis en lien le projet de Clean Nature et la Ville de L’Assomption.

« C’était un match parfait », dit Melissa Dick, gestionnaire de programme chez AquaAction, la municipalité étant à la recherche de solutions innovantes en politiques environnementales.

Dans la période de test de validation, l’équipe veut bien évidemment évaluer la quantité minimale en tenant compte des enjeux de sécurité routière, en mesurant l’adhérence, selon les dosages et les conditions climatiques.

Une fois l’efficacité établie, L’Assomption pourra évaluer l’expérience et les résultats pourront être appliqués à d’autres municipalités, idéalement.

« On veut s’assurer que ça ne reste pas juste à L’Assomption et qu’on pourra partager les leçons que l’on aura apprises », dit Melissa Dick.

2 « J'aime »

Intelligence artificielle Elon Musk et des centaines d’experts réclament une pause

PHOTO BENJAMIN FANJOY, ASSOCIATED PRESS

La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla.

(Paris) Elon Musk et des centaines d’experts mondiaux, dont le scientifique et professeur montréalais Yoshua Bengio, appellent à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars, en évoquant « des risques majeurs pour l’humanité ».

Publié à 6h43

Partager

Agence France-Presse

Dans cette pétition parue sur le site futureoflife.org, ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les « perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera ».

La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla, et Yuval Noah Harari, l’auteur de « Sapiens ».

Le patron d’OpenAI, concepteur de chatGPT, Sam Altman a lui-même reconnu être « un petit peu effrayé » par sa création si elle était utilisée pour de « la désinformation à grande échelle ou des cyberattaques ». « La société a besoin de temps pour s’adapter », avait-il déclaré à ABCNews mi-mars.

« Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne — pas même leurs créateurs — ne peut comprendre, prédire ou contrôler de manière fiable », estiment-ils.

« Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus », concluent-ils.

Les signataires comprennent aussi le cofondateur d’Apple Steve Wozniak, des membres du laboratoire d’IA de Google DeepMind, le patron de Stability AI Emad Mostaque, concurrent d’OpenAI, ainsi que des experts en IA et universitaires américains, ingénieurs-cadres de Microsoft, groupe allié de OpenAI.

Reportage au Téléjournal 18h

Intelligence artificielle : des chercheurs lancent un cri d’alarme

L’intelligence artificielle et les logiciels comme ChatGPT posent un grand risque pour l’humanité selon mille signataires d’une lettre ouverte, qui soutiennent qu’il faut mettre son développement sur pause.

Parmi ces signataires se trouvent Elon Musk, Steve Wozniak (cofondateur d’Apple), Yuval Noah Harari et Yoshua Bengio.

Le reportage de Normand Grondin

1 « J'aime »

Stanley Kubrick 's 2001: A Space Odyssey was a masterpiece so ahead of its time:

[HAL]: I know I’ve made some very poor decisions recently, but I can give you my complete assurance that my work will be back to normal. I’ve still got the greatest enthusiasm and confidence in the mission. And I want to help you.

2 « J'aime »

Techno

Le Parlement européen ouvre la voie à la régulation de l’IA

PHOTO JEAN-FRANCOIS BADIAS, ASSOCIATED PRESS

L’Union européenne espère conclure avant la fin de l’année le premier règlement au monde visant à encadrer et protéger l’innovation dans l’intelligence artificielle, un secteur stratégique dans la compétition économique.

(Strasbourg) Les eurodéputés ont approuvé mercredi un projet européen de régulation de l’intelligence artificielle (IA), ouvrant la voie à une négociation avec les États membres pour finaliser ce texte qui doit limiter les risques des systèmes de type ChatGPT.

Publié le 14 juin

Partager

Raziye AKKOC Agence France-Presse

« Ce sont des moments historiques, car c’est une première mondiale », a réagi la commissaire européenne Margrethe Vestager, qui a porté le texte avec son collègue Thierry Breton.

La législation n’entrera cependant pas en application avant 2026.

Le Parlement européen a réclamé de nouvelles interdictions, comme celle des systèmes automatiques de reconnaissance faciale dans les lieux publics.

La Commission voudrait autoriser son usage par les forces de l’ordre dans la lutte contre la criminalité et le terrorisme. Le sujet devrait nourrir les débats avec les États membres qui refusent l’interdiction de cette technologie controversée.

L’Union européenne espère conclure avant la fin de l’année le premier règlement au monde visant à encadrer et protéger l’innovation dans l’intelligence artificielle, un secteur stratégique dans la compétition économique.

Bruxelles a proposé il y a deux ans un projet ambitieux, dont l’examen a encore été retardé ces derniers mois par les controverses sur les dangers des IA génératives capables de créer des textes ou des images.

Le Parlement européen a adopté mercredi sa position lors d’un vote en séance plénière à Strasbourg. Dès la fin de journée, des négociations doivent commencer avec les États membres pour trouver un accord final.

Thierry Breton a appelé à conclure le processus dans « les prochains mois ».

« Agir vite »

« L’IA soulève de nombreuses questions – sur le plan social, éthique et économique. […] Il s’agit d’agir vite et de prendre ses responsabilités », a-t-il déclaré mercredi.

Estimant qu’il y avait urgence alors que les mesures ne prendront pas effet avant 2026, M. Breton et Mme Vestager ont annoncé leur intention d’obtenir des engagements volontaires des entreprises aussi vite que possible.

D’une grande complexité technique, les systèmes d’intelligence artificielle fascinent autant qu’ils inquiètent. S’ils peuvent sauver des vies en permettant un bond en avant des diagnostics médicaux, ils sont aussi exploités par des régimes autoritaires pour exercer une surveillance de masse des citoyens.

Le grand public a découvert leur potentiel immense à la fin de l’année dernière avec la sortie du générateur de contenus rédactionnels ChatGPT de la société californienne OpenAI, qui peut rédiger dissertations, poèmes ou traductions en quelques secondes.

Exemple des prouesses possibles : une chanson inédite des Beatles enregistrée en utilisant l’IA pour recréer la voix de John Lennon sortira cette année.

Mais la diffusion sur les réseaux sociaux de fausses images, plus vraies que nature, créées à partir d’applications comme Midjourney, a alerté sur les risques de manipulation de l’opinion et les dangers pour la démocratie.

Des scientifiques ont réclamé un moratoire sur le développement des systèmes les plus puissants, en attendant qu’ils soient mieux encadrés par la loi.

« Règles excessives »

La position du Parlement confirme dans ses grandes lignes l’approche de la Commission.

Le texte s’inspire des réglementations existantes en matière de sécurité des produits et imposera des contrôles reposant d’abord sur les entreprises.

Le cœur du projet consiste en une liste de règles imposées aux seules applications jugées à « haut risque ». Il s’agirait des systèmes utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre ou la gestion des migrations.

Parmi les obligations : prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque.

Leur respect sera contrôlé par des autorités de surveillance dans chaque pays membre.

Le Parlement européen entend mieux prendre en compte les IA génératives du type ChatGPT en réclamant un régime spécifique d’obligations qui reprennent essentiellement celles prévues pour les systèmes à haut risque.

La proposition de la Commission prévoit déjà un encadrement des systèmes d’IA qui interagissent avec les humains. Elle les obligera ainsi à informer l’utilisateur qu’il est en relation avec une machine et contraindra les applications générant des images à préciser qu’elles ont été créées artificiellement. Une obligation qui sera probablement élargie aux textes.

Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.

La CCIA, le lobby représentant les intérêts des industries des technologies de l’information et des communications, a averti que certains changements apportés par les eurodéputés risquaient de « ralentir l’innovation en faisant crouler les développeurs d’IA en Europe sous le poids de règles excessives ».

OpenAI a déjà prévenu qu’elle pourrait être contrainte à quitter l’UE en fonction de la teneur de la législation.

CGI: 1 G$ sur 3 ans dans ses services en intelligence artificielle

Publié à 07:47
PAR LA PRESSE CANADIENNE


(Photo: Charles Desgroseilliers)

La firme québécoise CGI annonce lundi qu’elle consacrera 1 milliard de dollars au cours des trois prochaines années pour soutenir la poursuite de l’expansion de ses services et solutions en intelligence artificielle (IA).

Le président et chef de la direction, George D. Schindler, précise que l’investissement sera développé en partenariat avec des clients.

Il signale que depuis plus de 20 ans, la firme montréalaise de technologies de l’information propose des technologies d’automatisation intelligente et d’IA dans ses services et solutions. Il estime que CGI peut maintenant tirer parti de cas d’utilisation éprouvés et de solutions sectorielles prêtes à l’usage en intelligence artificielle.

Il s’agit, selon CGI, du commencement d’une nouvelle vague d’innovation, une combinaison d’expertise humaine et d’utilisation éthique de la technologie.

En avril dernier, George Schindler soulignait que l’intelligence artificielle pourrait s’intégrer à des produits et services déjà offerts par la société.

CGI dit compter sur 91 000 conseillers et autres professionnels partout dans le monde.

3 « J'aime »

Selon Yoshua Bengio Des ordinateurs aussi intelligents que des humains d’ici 20 ans

PHOTO HUGO-SÉBASTIEN AUBERT, ARCHIVES LA PRESSE

Yoshua Bengio, spécialiste en intelligence articifielle, lors d’une conférence de presse en avril dernier

S’il croyait auparavant qu’il faudrait encore des décennies et même un siècle pour voir l’intelligence artificielle (IA) égaler la conscience humaine, le Montréalais et sommité mondiale en la matière Yoshua Bengio considère maintenant qu’un tel développement pourrait survenir d’ici 20 ans, et même moins.

Publié à 0h49 Mis à jour à 5h00

Partager


Vincent Larin
Vincent Larin La Presse

Le fondateur et directeur scientifique du Mila – Institut québécois d’intelligence artificielle sera à Washington mardi pour livrer un discours devant la sous-commission du Sénat américain sur la vie privée, la technologie et le droit.

Le scientifique entend alors plaider pour des investissements rapides et massifs afin de contrer l’apparition potentielle « d’IA malveillantes » et développer des contre-mesures vis-à-vis de possibles « scénarios indésirables », selon une copie de son discours obtenue par La Presse.

« Alors que l’on pensait qu’il faudrait attendre des décennies, voire des siècles, d’autres grands spécialistes de l’IA et moi-même pensons aujourd’hui qu’une IA de niveau humain pourrait être mise au point au cours des deux prochaines décennies, voire dans les prochaines années », livrera-t-il comme avertissement aux élus américains.

Or, compte tenu de la nature des ordinateurs numériques comparée « au matériel biologique » (les humains, en d’autres mots), le chercheur s’inquiète que les premiers disposent alors « d’avantages intellectuels significatifs » par rapport aux humains.

Le risque d’une perte de contrôle

En trame de fond, Yoshua Bengio souligne le contexte de l’évolution exponentielle de l’IA ces dernières années et les risques encore méconnus d’une perte de contrôle d’un logiciel superpuissant de ce type.

Par exemple, une IA superpuissante qui recevrait la consigne d’assurer sa survie coûte que coûte pourrait-elle en déduire qu’elle ne doit plus être déconnectée et ensuite entrer en conflit avec tout humain qui tente de le faire ? se questionne le chercheur. « Ça peut sonner comme de la science-fiction, mais il s’agit de science informatique solide et réelle », assure Yoshua Bengio.

Lui-même avoue avoir été pris au dépourvu par les récentes avancées en matière d’IA, notamment le lancement du maintenant célèbre logiciel ChatGPT. Un des jalons dans le domaine, le « test de Turing » (théorisé en 1950 par le pionnier de l’informatique Alan Turing), aurait ainsi été franchi lorsqu’il est devenu difficile de déterminer si l’on interagit avec un autre humain ou avec une machine, explique Yoshua Bengio.

Dès lors, le plus court délai qu’il entrevoit pour qu’un ordinateur atteigne le niveau de conscience d’un humain, environ cinq ans, est « particulièrement inquiétant », selon lui.

« Car les scientifiques, les régulateurs et les organisations internationales auront très probablement besoin d’un délai beaucoup plus long pour atténuer efficacement les menaces potentiellement importantes qui pèsent sur la démocratie, la sécurité nationale et notre avenir collectif », explique-t-il dans son discours.

Des lignes directrices nécessaires

D’où l’importance d’accélérer considérablement les efforts de recherche mondiaux afin d’améliorer notre compréhension des risques existants et futurs, une recherche qui devrait être libre d’accès, insiste-t-il.

Finalement, Yoshua Bengio plaide pour la mise en œuvre de réglementations nationales et multilatérales « souples » qui iraient « au-delà des lignes directrices volontaires » et prendraient, entre autres, la forme de « nouvelles institutions internationales » dont la priorité irait à la sécurité publique par rapport à tous les risques et préjudices associés à l’IA.

« Je crois que nous avons la responsabilité morale de mobiliser nos plus grands esprits et nos principales ressources dans un effort coordonné et audacieux pour tirer pleinement parti des avantages économiques et sociaux de l’IA, tout en protégeant la société, l’humanité et notre avenir commun contre ses dangers potentiels », conclut-il.

Pas très encourageant pour l’avenir, surtout quand on constate la tendance autoritaire généralisée de plusieurs pays dans le monde et surtout l’agressivité de deux super-puissances, la Russie et la Chine. Ces dictatures totalitaires corrompues utilisent déjà leur droit de véto pour bloquer des mesures humanitaires et s’opposer aux politiques de l’ONU en matière de justice internationale tout comme dans la résolution durable des conflits? Comment alors éviter qu’elles ne s’emparent de l’IA pour imposer leur propre volonté et agenda au monde?

Nonobstant ce fait, comment inculquer la sagesse et la bienveillance à des machines afin qu’elles agissent comme des humains? N’est-ce pas une aberration de vouloir se soumettre à des ordinateurs quand l’homme a déjà tout ce qu’il faut pour régler ses propres problèmes de conscience et de gestion du monde?

Une machine peut-elle être sensible à la souffrance et à la détresse des autres? Peut-elle exprimer sincèrement la compassion, le désir de paix et comprendre les énormes complexités de l’esprit humain? Ressentir le besoin de justice et de liberté, avoir des projets d’avenir, développer le génie créateur et idéaliser un monde dans lequel l’humain trouverait vraiment son bonheur?

J’avoue que de tous les dangers qui menacent notre civilisation actuelle, la dérive de l’Intelligence Artificielle est le plus menaçant pour les libertés individuelles et collectives. Car une fois la dictature de la machine implantée, il n’y aura pas de retour en arrière possible pour une société pleinement démocratique. Puisqu’on aura tout subordonné à un esprit non humain incapable de négocier ou faire des compromis pour satisfaire les besoins changeants d’un monde en perpétuel évolution. Au contraire la machine ne peut pas se projeter librement dans l’avenir, faire des choix personnels, saisir les subtilités des valeurs humaines et comprendre le besoin inaliénable d’amour, de liberté et d’absolu de l’être humain.

Don’t worry HAL 9000 is watching over us.

1 « J'aime »

J’ajouterais en terminant « Science sans conscience n’est que ruine de l’âme », disait Rabelais. Dans notre situation, une mise à jour semble requise : science, technologie et économie sans conscience laisseront la Terre en ruine et en larmes…

Réseau de la santé Trop vétuste pour l’intelligence artificielle

PHOTO ROBERT SKINNER, ARCHIVES LA PRESSE

Le recours encore répandu aux dossiers papier et au télécopieur dans le réseau de la santé empêche le Québec de miser sur l’intelligence artificielle pour améliorer la qualité des soins, révèle un rapport de la Commission de l’éthique en science et en technologie publié jeudi.

Le recours encore répandu aux dossiers papier et au télécopieur dans le réseau de la santé empêche le Québec de miser sur l’intelligence artificielle pour améliorer la qualité des soins, révèle un rapport de la Commission de l’éthique en science et en technologie publié jeudi. L’organisme appelle le gouvernement à faire un « effort considérable » pour favoriser la transformation numérique.

Publié à 1h04 Mis à jour à 5h00

Partager


Alice Girard-Bossé
Alice Girard-Bossé La Presse


Henri Ouellette-Vézina
Henri Ouellette-Vézina La Presse

La Commission note que l’intégration de l’intelligence artificielle (IA) dans le domaine de la santé pourrait apporter des bénéfices importants dans la gestion et la prestation des soins ainsi qu’en recherche.

Or, plusieurs enjeux et obstacles empêchent d’y arriver, « notamment le fait que le recours aux dossiers papier et au fax est encore bien présent et que l’infrastructure technologique actuelle n’est pas apte à accueillir l’IA », peut-on lire dans le rapport.

Le manque de données numériques diversifiées et de qualité, les problèmes de compatibilité et la vétusté de l’infrastructure numérique du réseau de la santé sont également des facteurs qui contribuent au problème.

Cette vétusté de l’infrastructure numérique du réseau a notamment été révélée par la pandémie de COVID-19. « Elle a entraîné des manquements et délais sur le plan de l’accès à l’information, de la surveillance épidémiologique et des communications, ce qui a nui à la capacité des acteurs d’intervenir efficacement. »

L’intelligence artificielle nécessite des données en format numérique, faciles à trouver et accessibles. « Cela implique notamment l’abandon des dossiers papier et du fax », précise la Commission. Elle soulève donc l’importance de « s’engager plus activement dans la transformation numérique du réseau de la santé et des services sociaux ».

Une utilisation du télécopieur « loin d’être efficace »

En réponse à la demande de La Presse, le cabinet du ministre de la Santé, Christian Dubé, a indiqué qu’il prenait le temps d’analyser l’ensemble du rapport. « On a justement constaté pendant la pandémie que l’utilisation du fax était loin d’être efficace. » Il souligne toutefois les avancées technologiques réalisées, comme le tableau de bord permettant de suivre l’évolution du réseau.

Le cabinet affirme également que plusieurs projets sont en cours pour moderniser le réseau de la santé et le rendre plus efficace, notamment Prescription Québec, qui vise à numériser toutes les ordonnances, le Dossier Santé numérique et la plateforme Votre Santé, une promesse électorale.

Le 29 mars dernier, le gouvernement a d’ailleurs adopté le projet de loi 5, qui vise à faciliter la circulation sûre des données dans le réseau de la santé. « C’est la loi nécessaire afin de déployer l’ensemble de nos initiatives », indique le cabinet.

Encore « très marginal »

Pour la Dre Marie-Pascale Pomey, experte en politiques publiques à l’École de santé publique de Montréal, mobiliser l’intelligence artificielle en santé au Québec est « faisable, mais encore très marginal ».

« On le voit que ça se peut, comme le CHUM qui a créé une banque de données notamment pendant la COVID-19 qui a permis de changer la modalité de traitement des patients grâce à l’analyse de données en temps réel. C’est possible, mais ça reste encore marginal, parce que ça demande un investissement colossal pour les établissements et ils n’ont pas forcément les moyens de le faire », soutient-elle.

La spécialiste a d’ailleurs aussi mené récemment une étude auprès de PDG d’établissement pour comprendre comment ils utilisaient les nouvelles technologies, dont l’intelligence artificielle. « Ce qui m’a le plus choquée, c’est qu’au moment de la réforme Barrette, les établissements se sont retrouvés avec 500, parfois 600 systèmes d’information différents qui ne communiquaient pas entre eux. Et ils n’avaient aucun financement pour résoudre ça », se rappelle-t-elle.

On est vraiment très arriérés au Québec et c’est très complexe. Nos systèmes sont vraiment hermétiques et dépendent énormément des dispensaires des différents types de technologies.

La Dre Marie-Pascale Pomey, experte en politiques publiques à l’École de santé publique de Montréal

À ses yeux, la difficulté de moderniser les systèmes réside aussi dans le fait que le recrutement de la main-d’œuvre est difficile. « Les personnes spécialisées en intelligence artificielle, elles ont des offres d’emploi qui sont à des niveaux que le système public n’arrive pas du tout à égaler. Ce n’est vraiment pas évident de recruter. Il y a tout un problème de compétitivité et de recrutement à considérer aussi », souligne Mme Pomey.

« Un autre élément, c’est qu’au Québec, c’est compliqué de concevoir des interfaces qui permettent de distribuer des objets connectés aux patients, comme des glucomètres et des balances qui partagent les données. Les règles du jeu ne sont pas claires, c’est très opaque. Là-dessus, on a au moins 10 à 15 ans de retard par rapport à la France, par exemple », conclut l’experte.

Avec la collaboration de Pierre-André Normandin, La Presse

Au Téléjournal 18h

Conférence sur l’intelligence artificielle : entrevue avec Valérie Pisano, présidente du Mila

Le Palais des congrès de Montréal accueille cette semaine une grande conférence sur l’intelligence artificielle. On parle de 1200 participants de 20 pays et 150 conférenciers.

L’événement est organisé par l’Institut québécois d’intelligence artificielle, le MILA.

Patrice Roy a rencontré la présidente, Valérie Pisano.


Une nouvelle chaire de recherche pour une IA « responsable » dans les jeux vidéo

Des personnes travaillent à l'ordinateur dans un espace de bureaux ouvert.
Selon le patron du département La Forge d’Ubisoft, l’IA n’est pas responsable; ce sont plutôt ses développeurs qui doivent l’être.
PHOTO : RADIO-CANADA / DENIS WONG

Hugo Prévost
Publié hier à 13 h 42 HAE

Le géant du jeu vidéo Ubisoft va s’associer à l’Institut québécois d’intelligence artificielle Mila et à l’Université McGill pour mettre sur pied une chaire de recherche sur l’utilisation responsable de l’IA au sein de l’industrie vidéoludique. Avec, à la clé, la mise au point de méthodes pour non pas remplacer les créateurs de contenus, mais plutôt les épauler et accélérer leur travail, affirme un responsable du développeur français.

La chaire en question, intitulée Scaling Game Worlds with Responsible AI dans la langue de Shakespeare, ou Mise à l’échelle des univers de jeu grâce à une IA responsable, dans celle de Molière, regroupera des stagiaires universitaires et des experts en production industrielle et en recherche d’Ubisoft, fait-on savoir par voie de communiqué.

Les approches modernes basées sur l’apprentissage automatique ont commencé à s’intégrer à une variété d’exemples de contenu numérique, tels que le texte, l’image, l’audio et même la simple génération de vidéo, affirme le communiqué, mais des questions clés restent sans réponse concernant la consommation responsable de contenu créé par l’humain et qui utilise ces techniques puissantes.

Concrètement, précise Yves Jacquier, directeur général d’Ubisoft La Forge, le laboratoire de recherche et développement de l’entreprise de jeux vidéo, cette chaire vise à terme à déterminer comment équilibrer le travail des artistes et des développeurs et celui de l’IA générative.

PUBLICITÉ

En entrevue à Midi info, sur les ondes d’ICI Première, M. Jacquier indique qu’en ce moment, l’IA générative – à l’image de ChatGPT pour le texte, par exemple, ou Midjourney pour les visuels – permet de produire environ 5 % des contenus que l’on trouve dans les jeux vidéo.

Par contre, les dirigeants des studios estiment que cette proportion passera à environ 50 %, d’ici cinq ans, ajoute-t-il.

Et devant cette perspective de croissance très rapide de l’utilisation de ces outils, il convient donc de définir des paramètres qui, de l’avis de M. Jacquier, se retrouvent au cœur de cette notion de responsabilité.

En soi, l’IA n’est pas responsable. Ceux qui sont responsables, ce sont ceux qui la construisent et l’utilisent. Notre approche consiste à nous assurer que l’IA ne va pas venir automatiser la création, mais bien assister le créateur [de contenus], explique-t-il.

Aider à la création, plutôt que remplacer les créateurs

Le directeur général de La Forge indique également que les craintes à propos de possibles pertes d’emploi sont des réflexions qui sont au cœur de nos actions.

Mais il y a de l’espoir en ce sens, et il est sans doute impossible d’envisager, dans l’état actuel des choses, un studio entièrement peuplé d’ordinateurs créant eux-mêmes les prochains jeux vidéo. Utiliser seulement l’IA pour faire de la création, eh bien, ça fait du contenu plate, lâche M. Jacquier.

On a besoin de la créativité humaine pour rendre ça intéressant, pour nous surprendre.

Ce que ce responsable d’Ubisoft souhaite, cependant, c’est que des discussions aient lieu pour voir comment l’IA peut nous permettre de multiplier notre capacité à porter des projets.

De l’avis de M. Jacquier, l’utilisation de l’IA, dans le domaine du jeu vidéo, aura un effet triple.

Tout d’abord, en affectant notre ligne de production, on sera en mesure de créer des contenus beaucoup plus rapidement, à grande échelle. Cela veut par exemple dire, dans des jeux en monde ouvert, d’avoir plus de diversité dans les foules.

Ensuite, cette capacité de créer des objets, des environnements, des personnages, mais aussi du code, le tout de façon simple, permettra de placer ces outils entre les mains des joueurs, et donc d’avoir des joueurs créateurs, a indiqué M. Jacquier, sans toutefois donner plus de précisions sur ce concept.

Enfin, l’IA donnera l’occasion, soutient-on, de créer des dialogues et des réactions beaucoup plus variées, en lien avec les actions posées par le joueur dans l’environnement virtuel.

1 « J'aime »