Intelligence artificielle (IA) - Actualités

3 articles
L’IA nous fait-elle perdre foi dans le progrès ?

Les géants technologiques investissent des centaines de milliards dans la révolution de l’IA générative. Pourtant, alors qu’une génération plus tôt, l’arrivée de l’internet promettait de nous simplifier la vie, les récents développements provoquent surtout de l’inquiétude. Sommes-nous en train de perdre la foi dans le progrès ? Un dossier de Nicolas Bérubé
Publié à 5 h 00

Une révolution à apprivoiser

Parlez d’intelligence artificielle générative autour de vous et vous verrez les mines s’assombrir.

L’IA générative a été entraînée par les créations d’innombrables auteurs, d’artistes et de créateurs qui ne sont pas cités ou rémunérés, déplore-t-il.

La manière d’écrire, de réfléchir : ça nivelle tout. C’est quelque chose de radicalement différent. C’est une raison pour être inquiet.

Thierry Bardini, professeur au département de communication de l’Université de Montréal

79 % des Canadiens sont préoccupés…

Comment faire quand on se sent dépassé ?

Comment faire quand on se sent dépassé par les nouvelles technologies, notamment l’arrivée de l’IA générative ? Nous en avons parlé avec Alexandre Marois, professeur adjoint à l’École de psychologie de l’Université Laval.

C’est une bonne chose d’être aux aguets. L’IA générative peut soulever certains enjeux éthiques, impacter notre façon de penser, de travailler. C’est une technologie qui peut être relativement destructive. Ce n’est pas bon de démoniser, mais c’est bon d’avoir un regard critique.

Alexandre Marois, professeur adjoint à l’École de psychologie de l’Université Laval

On dit que les avantages de l’IA sont difficiles à expliquer, mais que les effets néfastes sont faciles à comprendre…

Oui, et ça peut contribuer à la démonisation. Je pense qu’au final, il faut apprendre à l’utiliser. Ça ne coule pas de source non plus. Il faut mettre du temps pour trouver de bonnes façons d’interagir avec l’IA générative, pour contre-vérifier les réponses, pour se questionner sur la bonne approche. Si on l’utilise bien, ça ne va pas réduire de 100 % le temps des tâches, mais ça contribue à faire des gains en efficacité.

Quand le nouveau fait peur

Les nouvelles technologies ont de tout temps provoqué de la crainte, avant d’être adoptées et de cesser d’impressionner. L’IA générative suivra-t-elle la même trajectoire ? Voici quelques exemples tirés de l’histoire lointaine et récente de technologies qui ont ébranlé les certitudes.

L’imprimerie

Les journaux et le télégraphe

La radio

Les films « parlés »

La calculatrice

https://www.lapresse.ca/contexte/l-ia-nous-fait-elle-perdre-foi-dans-le-progres/2025-11-23/quand-le-nouveau-fait-peur.php

Nouvelles vidéo d’Andrew Chang qui nous explique des choses

If the AI bubble pops, will the whole U.S. economy go with it? | About That

As investors pour billions into artificial intelligence, warnings of a looming AI bubble are intensifying. Andrew Chang explains what’s fuelling those fears and breaks down key factors that could contribute to a burst bubble.

00:00 - Intro
01:25 - The ‘illusion’ of growth
07:23 - Pain vs. potential

Images provided by The Canadian Press, Reuters and Getty Images

3 Likes

1 Like

Recettes des Fêtes générées par l’IA Au menu : dinde accompagnée de sa… salmonelle

Des médias américains ont rapporté ces derniers jours des cas de recettes aberrantes qui posent des risques directs pour la santé.

Ne laissez pas la bouillie d’intelligence artificielle (IA) gâcher votre souper du réveillon. Car la marée de contenu d’IA qui inonde le web depuis des mois passe à table, en ce temps des Fêtes. Elle menace toutes les recettes, de la dinde du Thanksgiving américain à la non moins traditionnelle tourtière québécoise.

Publié à 6 h 00

Alain McKenna La Presse

« Je n’ai tiré cette recette d’aucun site », assure ChatGPT quand on lui demande sa meilleure recette de tourtière. « C’est une recette originale, basée sur mes connaissances générales de la cuisine québécoise traditionnelle et sur des techniques culinaires éprouvées. »

Rassuré ? Pas tout le monde le serait. On est prêt à lui pardonner de confondre la tourtière et le pâté à la viande, mais l’IA n’est pas seulement potentiellement mauvaise. Elle peut être carrément dangereuse.

Des médias américains ont rapporté ces derniers jours des cas de recettes aberrantes qui posent des risques directs pour la santé. Des temps de cuisson insuffisants pour la volaille qui laissent planer le risque de salmonellose, par exemple. Ou des mélanges d’épices incohérents, voire carrément toxiques.

Certaines images alléchantes montrent des plats impossibles à reproduire. Elles sont aussi fausses que la recette.

Un réveillon à haut risque ?

Imaginez la scène. Vous suivez une recette trouvée en tête des résultats de Google. La pâte ne lève pas. La viande est sèche. Le goût est étrange. Vous avez gaspillé du temps et de l’argent. Votre repas des Fêtes est gâché. Tout cela à cause d’un texte généré en quelques secondes par un serveur informatique anonyme.

C’est un réveillon à haut degré de risque. C’est la faute à ce qu’on appelle en anglais l’« AI slop », ou la « bouillie d’IA ». Aux États-Unis, à l’occasion de la fête de l’Action de grâce, ou Thanksgiving, des millions d’Américains y ont goûté en se fiant à des recettes pour leur dinde trouvées sur Google.

Les résultats de recherche sont saturés de recettes générées par des robots. Des recettes parfois inventées de toutes pièces par les algorithmes d’OpenAI, de Google et des autres.

Le Québec n’est pas à l’abri. La vague de « bouillie » déborde des frontières comme la sauce brune du saucier. L’IA franchit la barrière de la langue sans effort.

Quand on parle d’IA générative à Marilou Bourdon, du site Trois fois par jour, elle avoue qu’elle a « un peu paniqué », il y a quelques mois. Ça s’est replacé depuis. Elle dit avoir repris dans la vente de ses produits les revenus perdus en raison de la baisse des visites sur son site causée par les IA génératives.

On ne peut pas contrôler ce que ces IA produisent comme contenu, mais on peut s’adapter, conclut-elle.

Marilou Bourdon

« Il faut accepter la réalité, ces IA existent, mais il y a des domaines où on ne peut pas remplacer l’humain », dit-elle. La cuisine est un de ces domaines. Feu Daniel Pinard n’aurait pas dit autrement.

Marilou, elle, ne publie que des recettes testées et vérifiées. Ses photos sont authentiques, à tel point que la météo affecte l’horaire des séances photo. « On a une équipe à l’interne et pour rien au monde je ne changerais ça », assure celle qui, en tant que musicienne, se frotte aussi à l’IA sur les plateformes musicales.

« Je n’en reviens pas qu’on soit rendus là, ça va vraiment vite. »

Un arrière-goût de piège à clics

Le problème est que l’IA générative est une série d’algorithmes qui ne font que prédire le mot suivant dans une phrase (ou la note suivante dans une chanson). Elle ne comprend pas la chimie. Elle ignore la physique. Elle n’a pas de papilles gustatives.

Un humain sait que l’ail brûle vite. Un humain sait que le bicarbonate de soude n’est pas de la poudre à pâte. L’IA ne le sait pas. Elle hallucine ses instructions.

Son contenu n’est pas vérifié par un humain, mais il fait cliquer les internautes. « C’est un point de départ pour en savoir plus sur une recette », répond Google à Bloomberg à ce sujet.

Sur l’internet, la cuisine est un sujet populaire. Les revenus publicitaires y sont élevés. Les robots produisent des milliers de recettes par jour. Google n’en est pas à sa première recette d’IA : Gemini proposait l’an dernier d’ajouter de la colle à des pizzas pour rendre leur fromage plus coulant.

L’utilisateur espère obtenir une recette authentique, ou peut-être espère-t-il que l’IA reproduira la recette d’un chef publiée sur son propre site web ? Même là, une catastrophe culinaire est probable. L’IA de Google fait cuire un populaire gâteau de Noël de la blogueuse américaine Eb Gargano si longtemps qu’il « finirait en cendres », avertit-elle sur Bloomberg.

Bref, laisser l’IA dicter votre menu des Fêtes, ça risque de ne pas être un cadeau.

https://www.lapresse.ca/affaires/techno/2025-12-04/recettes-des-fetes-generees-par-l-ia/au-menu-dinde-accompagnee-de-sa-salmonelle.php

Veut-on vraiment ces immenses centres de données au Canada?

On compte déjà un peu plus de 200 de ces infrastructures au Canada.

Les ordinateurs qui font fonctionner l’intelligence artificielle sont hébergés dans des centres de données. (Photo d’archives)

Photo : Shutterstock / Oleksiy Mark

Publié à 4 h 00 HNE

Les centres de données semblent prêts à pousser comme des champignons au Canada. Des promoteurs privés et plusieurs élus espèrent attirer chez eux une partie des fortunes promises pour la construction de ces infrastructures informatiques un peu partout. Mais est-ce vraiment une bonne affaire? Voici quelques réflexions.

L’engouement pour l’intelligence artificielle (IA) a déclenché une véritable course entre les géants du numérique, une rivalité que l’on peut comparer à une course aux armements.

Dans ce cas-ci, l’arme absolue, ce sont les centres de données, de vastes infrastructures critiques pour traiter toutes les informations nécessaires à notre vie moderne.

C’est là que sont stockés non seulement les films que nous visionnons ainsi que nos photos mais aussi les informations critiques sur lesquelles s’appuient les modèles d’IA que nous interrogeons.

C’est dans ces vastes structures que le fameux nuage informatique (le « cloud ») prend une forme bien concrète. Et pour que ces entrepôts surchauffés par des milliers de serveurs informatiques fonctionnent 24 heures sur 24, il faut énormément d’énergie.

Les géants comme Microsoft et OpenAI sont un peu en guerre, lance Martin Bouchard, président et cofondateur de QScale, un des opérateurs de centres de données au Canada.

Ces géants, explique-t-il, se battent tous pour la même ressource : l’énergie.

Martin Bouchard, président et cofondateur de l’entreprise QScale. (Photo d’archives)

Photo : Radio-Canada / Alexandre Painchaud

L’électricité semble être une des grandes limites au développement de l’intelligence artificielle. En effet, il est difficile de répondre aux besoins de toutes ces installations énergivores.

C’est là que le Canada a des atouts. Son électricité est relativement bon marché et souvent de sources propres. Son climat nordique aide aussi à réduire les besoins en énergie pour refroidir les serveurs informatiques.

D’un océan à l’autre, on compte déjà un peu plus de 200 centres de données de diverses tailles. Les investissements promis atteignent une quinzaine de milliards de dollars canadiens.

De l’énergie, mais à quel prix?

Le mois dernier, le premier ministre François Legault a signalé que le Québec allait s’ouvrir aux centres informatiques après des années à dire qu’il n’avait pas assez d’électricité à consacrer à cette industrie.

Ils sont prêts à payer des prix très élevés pour l’électricité, a expliqué M. Legault, peut-être trois fois plus cher que ce qui est demandé aux grands clients industriels, notamment les alumineries.

L’Alberta opte pour une stratégie différente.

Elle compte vendre son gaz naturel aux grands acteurs des centres de données. De plus, ce sont eux qui devront se charger de transformer ce gaz en électricité pour leurs installations.

L’entrepreneur canadien Kevin O’Leary rêve d’établir le plus gros centre de données de la planète dans le nord de l’Alberta. La Wonder Valley serait de la taille d’un parc industriel.

À terme, ces installations consommeraient 7,5 gigawatts, soit une quantité d’énergie semblable à celle qui est nécessaire pour alimenter toute l’île de Montréal.

L’entrepreneur canadien Kevin O’Leary. (Photo d’archives)

Photo : Radio-Canada

Dans cette rivalité, le bilan carbone semble avoir perdu de son poids. Cet impératif est repoussé à plus tard, croit Martin Bouchard.

Il n’y a presque plus du tout d’intérêt pour l’énergie verte de la part [de ceux qui gèrent] les centres de données. C’est plutôt : “Je veux de l’énergie, point à la ligne!” explique-t-il.

Cet appétit a fait grimper les coûts dans certains marchés aux États-Unis, entre autres parce que la demande est très élevée, mais aussi parce qu’il faut bâtir des infrastructures électriques pour approvisionner tous ces nouveaux clients.

Écoutez le reportage de Yanik Dumont Baron à l’émission Tout terrain, sur les ondes d’ICI Première, à compter de 10 h dimanche.

Quelles retombées économiques?

On n’a aucune indication qu’il y aura des retombées massives pour l’économie locale, souligne Guillaume Beaumier, qui enseigne à l’École nationale d’administration publique à Québec (ÉNAP).

Ce chercheur croit que le Canada ne devrait pas se laisser leurrer par les milliards de dollars promis pour l’achat d’énergie et pour la construction de ces vastes installations informatiques.

Tout d’abord, il est bien compliqué de taxer les profits réalisés dans ces installations, surtout si elles hébergent les données d’entreprises étrangères comme Microsoft ou Google.

De plus, les centres de données ne créent pas beaucoup d’emplois à long terme. À peine une centaine de postes sont disponibles à chacun de ces endroits une fois la structure en marche.

En entrevue récemment, la responsable de l’Association des centres de données du Mexique a comparé un centre de données à un hôtel qu’il faut constamment approvisionner.

C’est dans l’entretien des câbles, des serveurs et des systèmes de ventilation qu’une communauté locale peut tirer des emplois, un peu comme les draps d’un hôtel qu’il faut laver.

Ces emplois indirects, c’est ce qui permet aux communautés de se développer réellement grâce à un centre de données, a indiqué Adriana Rivera Cerecedo.

Leçons mexicaines

Avec son mari et ses cinq enfants, Rosillo habite la région de Querétaro, une zone aride au nord-ouest de Mexico où sont installés plusieurs centres de données… et où d’autres centres sont attendus.

La première chose que je fais en me levant, c’est de vérifier s’il y a de l’eau, explique Rosillo. Dans sa modeste maison se trouvent de grands contenants pour stocker cette ressource essentielle qu’il faut emmagasiner chaque jour, « au cas où ».

Cependant, dans ce coin du pays, l’eau ne coule pas toujours du robinet. Rosillo doit donc faire des réserves. Ce vieux problème semble avoir empiré au cours des dernières années.

Des centres de données se construisent rapidement dans la région de Querétaro, au Mexique. Conséquence : les infrastructures locales, par exemple les routes ainsi que les réseaux électriques et d’aqueduc, sont sous pression.

Photo : Radio-Canada / Emilio Avalos

Les centres de données traînent une réputation de grands consommateurs d’eau, utilisée pour refroidir les milliers de processeurs informatiques sans cesse sollicités. Il y a différentes techniques de refroidissement; toutes ne consomment pas autant de liquide.

L’Association des centres de données assure que la grande majorité des sites consomment très peu d’eau, à peine plus qu’un hôtel, soutient Adriana Rivera Cerecedo.

Impossible de vérifier les quantités d’eau puisées par ces entreprises privées au Mexique, ni de savoir quelles technologies sont utilisées autour de Querétaro. Cette information est considérée comme un secret d’entreprise. Les politiciens ont signé des ententes de non-divulgation.

Quand il n’y a pas de transparence, c’est parce qu’on cache quelque chose, laisse tomber Teresa Roldán, une rare environnementaliste qui accepte de critiquer les centres de données dans la région de Querétaro.

En Irlande et au Chili, où se trouvent beaucoup de centres de données, l’opposition se fait parfois très audible parce que les impacts de ces méga-centres informatiques sont bien visibles.

Quel est le prix du stockage de nos données numériques pour ces Mexicains?

Notre besoin mondial de stocker des données et l’utilisation croissante de l’intelligence artificielle transforment la région de Querétaro, au Mexique. Regardez le reportage de Yanik Dumont Baron. (Photo d’archives)

Photo : Reuters / Benoit Tessier

Souveraineté numérique

L’intérêt d’accueillir des centres informatiques trouve plus de sens si on pense à la souveraineté numérique, c’est-à-dire le désir de contrôler le mieux possible le sort des données de son pays, notamment les renseignements en matière de santé ou ceux qui concernent la défense nationale.

Ce thème résonne particulièrement bien auprès des Canadiens, encore sonnés par l’attitude de Donald Trump envers son voisin du Nord, d’autant plus que les géants du numérique sont surtout américains.

C’est un enjeu stratégique pour le Canada, soutient Julien Billot, directeur général de l’organisme Scale AI. Ce groupe financé par Ottawa aide les entreprises à adopter l’intelligence artificielle.

Julien Billot, directeur général de l’organisme Scale AI.

Photo : Radio-Canada / Photo Yanik Dumont Baron

À ses yeux, cette question est stratégique à plusieurs égards.

D’abord, les entreprises et les ministères (fédéraux et provinciaux) qui utilisent des services américains paient ces entreprises. Ces fonds ne restent pas au Canada.

Ensuite, les données confiées à des entreprises américaines peuvent être obtenues par les autorités américaines (une loi américaine le garantit), même si elles sont hébergées sur des serveurs canadiens et même si les règles canadiennes sont strictes.

Si on veut être un pays souverain, il faut créer de la valeur.

Une citation de Julien Billot, directeur général de Scale AI

Cela signifie qu’il faut encourager les entreprises canadiennes à bâtir des solutions canadiennes, utilisées par les Canadiens. C’est un travail à long terme qui nécessite stratégie et réflexion de la part des décideurs.

Or, le monde de l’IA bouge très vite. Et de vastes sommes d’argent sont disponibles maintenant.

C’est un grand piège de se dire : “On va manquer le bateau, donc il faut embarquer dans le bateau!” lance Guillaume Beaumier, de l’ÉNAP.

À cela, Martin Bouchard et une bonne partie de l’industrie répondront sûrement qu’il est trop tard, que le fameux bateau a déjà quitté le port. La réalité, affirme-t-il, c’est qu’Internet et l’intelligence artificielle, il faut que ça roule quelque part.

À lire aussi :

1 Like

Usage de l’IA en cour « Un défi pour les années à venir »

PHOTO SARAH MONGEAU-BIRKETT, ARCHIVES LA PRESSE

Les tribunaux québécois ne se gênent plus pour réprimander les citoyens qui utilisent l’intelligence artificielle (IA) de manière fautive.

Lorsqu’on tape les mots « intelligence artificielle » et « ChatGPT » dans les banques de décisions judiciaires du Québec, les résultats se multiplient. Après une première sanction en la matière, les tribunaux québécois ne se gênent plus pour réprimander les citoyens qui utilisent l’intelligence artificielle (IA) de manière fautive.

Publié hier à 19 h 45
Megan Foy La Presse

Ce qu’il faut savoir

  • En octobre 2025, la Cour supérieure du Québec a imposé une amende de 5000 $ à un individu sans avocat, qui a cité de faux éléments de jurisprudence en utilisant ChatGPT pour assurer sa défense.
  • Depuis, les causes impliquant l’usage de l’IA sont en hausse, surtout chez les personnes qui se représentent seules et qui ont peu de ressources.
  • Le Barreau du Québec a publié un guide pratique pour une utilisation responsable de l’IA au tribunal.

À l’instar de bien d’autres domaines, l’IA s’est invitée dans le monde juridique, au Québec.

Pour la première fois, la Cour supérieure du Québec a d’ailleurs sanctionné un individu pour son utilisation de l’IA, le 1er octobre dernier1. L’homme de 74 ans, qui n’était pas représenté par un avocat, a cité dans sa défense des passages de jurisprudence qui n’existent pas. Il a été condamné à verser une somme de 5000 $ à la partie adverse.

Cette première décision en la matière, comme l’avaient prédit des spécialistes, a ouvert la voie au Québec. Depuis, plusieurs autres décisions rendues font mention d’un usage erroné des outils d’IA dans la province, et ce, dans toutes sortes de causes, a constaté La Presse.

« Je pense que [nous allons] en trouver tous les mois », réagit Me Gaspard Petit, avocat spécialisé en propriété intellectuelle au cabinet Lavery à Montréal, en entrevue avec La Presse. « On voit que c’est en accélération depuis le printemps, et ça restera un défi pour les années à venir », ajoute-t-il.

Chaque fois, presque la même histoire se répète : un individu, sans avocat, présente un document truffé de fausses citations à la cour. Les amendes et avertissements sont justifiés par la perte de temps pour la partie adverse, qui a dû contre-vérifier chaque passage.

À Gatineau, quelques semaines après la première décision en la matière, dans une cause de litige, un individu s’est vu imposer une amende de 750 $ pour cette raison, en Cour supérieure du Québec. À Montréal, à la fin d’octobre, dans une affaire de divorce, l’une des parties a reçu un avertissement pour son usage de l’IA.

« Sur certains points cruciaux à sa demande, les articles cités disaient même le contraire de ce qu’[elle] prétendait », peut-on lire dans cette dernière décision.

Sanctions

Verser une compensation à la partie adverse fait-il vraiment partie de la solution ? Selon Me Petit, sans aucun doute. Un peu comme les conducteurs qui roulent trop vite et qui reçoivent une contravention pour les décourager de recommencer, et surtout dissuader les autres de les imiter.

Par contre, ça va être la même erreur, répétée chaque fois par des personnes différentes, qui vont se faire donner un rappel à l’ordre par un juge. Pour moi, c’est un problème beaucoup plus profond, beaucoup plus en amont.

Me Gaspard Petit, avocat spécialisé en propriété intellectuelle

Pour l’instant, Me Petit explique que la contre-vérification des documents ne nécessite pas de ressources supplémentaires dans les cabinets, puisque les avocats consacrent déjà une partie de leur temps à la recherche.

« Par contre, vous comprenez que vérifier quelque chose qui n’existe pas, ce n’est pas aussi amusant que l’inverse », ajoute-t-il, même si les contrevenants utilisent l’intelligence artificielle de bonne foi.

Utilisation responsable

Le 1er décembre dernier, le Barreau du Québec a publié un guide pratique pour une utilisation responsable de l’IA2, spécialement destiné aux personnes qui se représentent seules devant le tribunal. Ce guide était en préparation depuis un moment, a assuré le Barreau à La Presse.

« Le phénomène de la représentation seule n’est pas en voie de disparition, bien au contraire, pour toutes sortes de raisons, notamment les coûts d’avocat. […] C’est sûr que c’était le souci du Barreau », a souligné Martine Meilleur, porte-parole du Barreau du Québec.

Déjà, au tournant de 2024, le juge en chef de la Cour du Québec avait levé un drapeau rouge concernant le rythme fulgurant des développements en matière d’IA.

Jusqu’à présent, aucun avocat québécois n’a été sanctionné pour un usage fautif de l’IA.

1. Lisez « Il écope d’une amende après avoir utilisé l’IA dans sa défense en cour » 2. Consultez le guide du Barreau du Québec

En savoir plus

  • 51
    Nombre de décisions judiciaires où il est question de contenu erroné généré par l’intelligence artificielle au Canada, selon la base de données compilées par un avocat français expert en la matière

Source : BASE DE DONNÉES DE ME DAMIEN CHARLOTIN

https://www.lapresse.ca/actualites/justice-et-faits-divers/2025-12-23/usage-de-l-ia-en-cour/un-defi-pour-les-annees-a-venir.php

2 Likes

3 Likes

3 articles
Intelligence artificielle Salutaire ou catastrophique ?

C’est désormais clair, l’intelligence artificielle est en train de changer le monde. Mais un peu plus de trois ans après l’arrivée de ChatGPT, on ignore toujours si ce sera pour le mieux ou pour le pire. Que nous réserve l’IA d’ici cinq ans ? Dans ce dossier, nous explorons un scénario où ces outils conduisent l’humanité au bord de l’extinction… et un autre où ils contribuent à sauver le monde. Puis nous verrons comment faire pencher la balance du bon côté.

Formidable, l’IA est là !

PHOTOMONTAGE LA PRESSE

Nouveaux médicaments. Nouveaux matériaux. Réduction des GES, agriculture plus performante, entreprises plus productives : et si l’intelligence artificielle nous aidait à affronter les grands défis de l’humanité ? Plongée dans un scénario optimiste où l’IA nous fait réaliser un bond en avant.

Résumé

[
Philippe Mercure
Philippe Mercure La Presse

](https://www.lapresse.ca/auteurs/philippe-mercure)

[
Alexandre Sirois
Alexandre Sirois La Presse

](https://www.lapresse.ca/auteurs/alexandre-sirois)

« C’est sûr que créer une vidéo de chat qui danse La Macarena, ce n’est pas la chose la plus utile. Mais on apprend encore à apprivoiser ces outils. Et si on réussit à diriger l’attention vers de vrais enjeux, je pense qu’il va vraiment y avoir un impact positif. »

Celle qui parle s’appelle Sophie Fallaha. Elle est directrice générale du Centre d’expertise international de Montréal en intelligence artificielle (CEIMIA). La mission de l’organisme : utiliser l’IA pour « le bénéfice de l’humanité ». Le CEIMIA met en lien des chercheurs avec des gouvernements ou des entreprises qui ont des problèmes à régler.

Un exemple : le CEIMIA a participé à un projet destiné à mieux répondre aux mouvements migratoires dans le bassin du lac Tchad, en Afrique. Souvent provoqués par les changements climatiques, ces déplacements sont complexes à gérer puisque plusieurs pays sont impliqués.

« L’idée est de détecter les premiers mouvements de population afin d’anticiper les mouvements migratoires et informer les gouvernements et les acteurs d’aide humanitaire pour que les ressources soient distribuées aux bons endroits », illustre Sophie Fallaha.

De concert avec le Partenariat mondial sur l’IA, qui regroupe des organismes de nombreux pays, le CEIMIA s’est aussi penché sur utilisation de l’IA dans la lutte contre les changements climatiques. Améliorer les prévisions climatiques, mieux gérer les réseaux électriques, prédire la demande pour les transports en commun afin d’adapter l’offre : les possibilités sont nombreuses.

« On peut rêver d’une agriculture de précision qui permet de donner exactement la bonne quantité d’eau et de nutriments aux cultures, réduisant ainsi l’usage des pesticides », illustre Sophie Fallaha, qui estime que l’IA pourrait aider les pays en voie de développement à mieux gérer leurs ressources et combler le fossé avec les pays développés.

Oui, l’IA génère des impacts environnementaux importants et Sophie Fallaha estime qu’il est primordial de se pencher sur la question. Mais elle croit qu’on en viendra à concevoir des systèmes plus petits et plus spécialisés, et donc plus sobres en énergie.

PHOTO TIRÉE DU SITE DU CEIMIA

Sophie Fallaha, directrice générale du Centre d’expertise international de Montréal en intelligence artificielle

Je suis réaliste : il y a des enjeux. Il faut avancer de manière responsable. Mais je vois une accélération des solutions positives.

Sophie Fallaha, directrice générale du Centre d’expertise international de Montréal en intelligence artificielle

« Je dirais qu’il n’y a pratiquement pas de limites. Le potentiel existe dans tous les domaines où on a besoin de nouveaux matériaux – et ils sont nombreux. »

Alannah Hallas est professeure associée à l’Institut de la matière quantique Stewart Blusson de l’Université de la Colombie-Britannique. Son boulot : inventer de nouveaux matériaux pour toutes sortes d’applications.

Depuis environ un an, la professeure utilise l’IA pour y parvenir. Et elle est soufflée par son potentiel.

La spécialiste explique que pour créer un matériau, les scientifiques ont accès à une soixantaine d’éléments stables et sûrs du tableau périodique : fer, carbone, chrome, cuivre, zinc, magnésium, etc.

« On peut en combiner plusieurs à raison de n’importe quel ratio. Et on peut le faire dans n’importe quelles conditions : appliquer de la pression, chauffer, etc. Les possibilités sont infinies », explique-t-elle.

Un humain s’y perd. Mais l’IA permet d’explorer ces possibilités et de prédire les propriétés des matériaux ainsi inventés, une tâche actuellement très difficile. « Souvent, on n’a pas le choix de fabriquer le matériau et de le tester », dit Alannah Hallas.

« On peut même demander au modèle d’utiliser seulement des éléments qui ne sont pas problématiques d’un point de vue géopolitique ou éthique », illustre la spécialiste, dont l’équipe travaille à développer de meilleurs matériaux pour les batteries des voitures électriques et des appareils électroniques.

PHOTO TIRÉE DU SITE DE L’UNIVERSITÉ DE LA COLOMBIE-BRITANNIQUE

Alannah Hallas, professeure associée à l’Institut de la matière quantique Stewart Blusson de l’Université de la Colombie-Britannique

On commence à peine à utiliser l’IA et j’ai vraiment l’impression que ça va s’améliorer. La technologie sera plus accessible. Avec tous les chercheurs dans le monde qui travaillent sur les matériaux, le potentiel est énorme !

Alannah Hallas, professeure associée à l’Institut de la matière quantique Stewart Blusson de l’Université de la Colombie-Britannique

L’IA promet aussi de bouleverser le monde des entreprises. Et les impacts se font sentir… jusque dans les pommes de terre.

« Les gens pensent que des patates, c’est juste des patates. Mais c’est plus compliqué que ça », dit Josée Petitclerc, responsable du marketing et de l’amélioration continue chez Patates Dolbec.

PHOTO FOURNIE PAR PATATES DOLBEC

Patates Dolbec produit 55 millions de kilogrammes de pommes de terre chaque année.

L’entreprise de Saint-Ubalde, dans la région de Portneuf, produit 55 millions de kilogrammes de pommes de terre chaque année. Des pommes de terre qui viennent en une myriade de variétés, de tailles et de formes.

Patates Dolbec s’est dotée d’un système qui pèse et filme chaque pomme de terre. Un système d’intelligence artificielle détermine ensuite si elle doit être envoyée à l’épicerie, au restaurant ou chez un transformateur.

« Les restaurants veulent des patates de la même grosseur parce que c’est plus simple à cuire, explique Mme Petitclerc. Le transformateur, lui, peut dire : ça ne me dérange pas d’avoir un peu de taches argentées. »

L’IA a fait passer de 16 à 4 le nombre de trieurs de patates par quart de travail, sans provoquer de perte d’emploi. « Les gens sont encore chez nous, mais ils se consacrent maintenant à des tâches plus intéressantes », dit Mme Petitclerc, qui voit un potentiel immense pour le futur.

« On va continuer avec l’IA, jure-t-elle. C’est très positif. »

Ce n’est qu’un exemple parmi d’autres et il semble clair que le monde du travail est entré dans une révolution qui va prendre de l’ampleur au cours des cinq prochaines années.

Tout comme celui de la santé, d’ailleurs.

Il suffit de parler avec des chercheurs comme le Français Jean-Philippe Vert pour s’en convaincre. Ce dernier a cofondé la société Bioptimus il y a deux ans dans le but de « révolutionner la biologie avec l’IA ». Il nourrit, à ce sujet, de grandes ambitions.

PHOTO TIRÉE DE LA PAGE LINKEDIN DE JEAN-PHILIPPE VERT

Jean-Philippe Vert, cofondateur de la société Bioptimus

Il y a aujourd’hui beaucoup de données qui sont générées pour chaque patient. On fait des prises de sang, des analyses plus poussées, de l’imagerie, parfois de la génomique… Et, clairement, l’IA apporte un superpouvoir pour analyser ces données et permettre d’identifier des signaux qui diraient qu’on devrait donner tel médicament à tel patient ou lui faire passer tel autre examen, etc.

Jean-Philippe Vert, cofondateur de la société Bioptimus

L’intelligence artificielle, en médecine, peut déjà contribuer à améliorer les diagnostics et les décisions prises par les professionnels de la santé. Et ce potentiel va croître au fil des ans, des développements de l’IA et des avancées dans ce domaine. Mais les espoirs de Jean-Philippe Vert vont plus loin encore.

« La grosse chose, plus ambitieuse scientifiquement, qu’on vise, c’est fournir aux chercheurs de nouveaux outils qui leur permettent de mieux comprendre la cause des maladies et comment les traiter. Donc [intervenir] un peu plus en amont, mais vraiment pour aboutir à une nouvelle manière de faire de la biologie. »

C’est exactement ce que souhaite Diego di Bernardo, professeur de génie biomédical à l’Université de Naples Frédéric-II, qui travaille depuis une vingtaine d’années à l’Institut Telethon de génétique et de médecine (TIGEM), où nous l’avons joint. Ce centre de recherche italien est voué à la compréhension des mécanismes moléculaires des maladies génétiques rares et au développement de traitements pour celles-ci.

Dans son domaine précis, l’IA est déjà en train d’accélérer les découvertes. Tout particulièrement depuis qu’un modèle d’intelligence artificielle développé par Google DeepMind (AlphaFold) s’est montré capable de prédire la structure des molécules. Un pas en avant spectaculaire, qui a valu aux chercheurs impliqués, Demis Hassabis et John Jumper, le prix Nobel de chimie en 2024.

« La forme d’une protéine, c’est sa fonction, explique Diego di Bernardo. C’est un peu comme une roue qui tourne parce qu’elle est ronde, explique-t-il. Le problème a toujours été de tenter de découvrir la forme. On utilisait par exemple la cristallographie aux rayons X pour y parvenir, mais c’était un processus extrêmement lent et complexe qui ne fonctionnait pas pour la majorité des protéines. »

L’IA change la donne et permet d’espérer des applications concrètes pour le traitement de diverses maladies.

PHOTO TIRÉE DU SITE DE L’INSTITUT TELETHON

Diego di Bernardo, professeur de génie biomédical à l’Université de Naples – Frédéric-II

Si on connaît la forme, on peut utiliser des outils informatiques bien connus pour concevoir de petites molécules qui viennent se loger dans la protéine pour bloquer une fonction. Comme mettre un bâton dans une roue. Et ça a un grand impact sur la fabrication de médicaments parce qu’on peut en créer qui interagissent avec une protéine dont on connaît la forme.

Diego di Bernardo, professeur de génie biomédical à l’Université de Naples – Frédéric-II

Ses travaux n’ont pas encore permis de guérir de maladies dans la foulée de ces progrès, mais Diego di Bernardo est persuadé que d’ici trois à cinq ans, il y aura « des essais cliniques en cours ». Car on assiste carrément à une révolution dans ce secteur de la recherche médicale. Il cite par exemple les travaux de David Baker à Seattle (qui a aussi fait partie des lauréats du Nobel de chimie en 2024), « qui a conçu une protéine capable de reconnaître et de bloquer les toxines de plusieurs venins de serpent » à l’aide de l’IA.

Peut-on rêver et penser qu’un jour, on pourra se débarrasser pour toujours d’une maladie comme le cancer ?

« Il y a certains types de cancers que nous pouvons déjà réellement guérir aujourd’hui, fait-il remarquer. Mais pour vraiment réaliser ce grand rêve, je pense que l’IA devra nous aider, mais c’est un scénario à long terme. Et nous aurons besoin de systèmes bien plus puissants que ceux que nous avons aujourd’hui. »

Six promesses positives de l’IA

  • Aider à diagnostiquer les maladies et accélérer le développement de nouveaux médicaments.
  • Aider à concevoir de nouveaux matériaux pour toutes sortes d’applications.
  • Augmenter la productivité des entreprises.
  • Aider à la lutte contre les changements climatiques.
  • Rendre l’agriculture plus productive.
  • Aider les pays en voie de développement à mieux gérer leurs ressources et à combler le fossé avec les pays développés.

Catastrophe, l’IA est là !

PHOTOMONTAGE LA PRESSE

Catastrophique, la révolution de l’intelligence artificielle ? Environnement, monde du travail, secteur culturel, milieu de l’éducation… Les dérapages sont déjà nombreux. Et plusieurs estiment qu’ils vont prendre de l’ampleur au cours des cinq prochaines années si les géants de l’IA continuent de nous imposer leur vision sans chercher à assurer la sécurité de leurs systèmes.

Résumé

[
Alexandre Sirois
Alexandre Sirois La Presse

](https://www.lapresse.ca/auteurs/alexandre-sirois)

[
Philippe Mercure
Philippe Mercure La Presse

](https://www.lapresse.ca/auteurs/philippe-mercure)

Et si le pire était encore pire que ce qu’on pense être le pire ?

Lorsqu’on a demandé à Yoshua Bengio, coprésident et directeur scientifique de l’organisation LoiZéro, ce qui pourrait se passer de pire au cours des cinq prochaines années en lien avec l’intelligence artificielle, il a d’abord évoqué une éventuelle accélération de son développement.

« Le pire, c’est que les compagnies principales planifient utiliser les avancées [des systèmes d’IA] qui raisonnent de mieux en mieux, qui programment de mieux en mieux, pour accélérer la recherche en IA », résume-t-il.

PHOTO HUGO-SÉBASTIEN AUBERT, ARCHIVES LA PRESSE

Yoshua Bengio, coprésident et directeur scientifique de l’organisation LoiZéro

On pourrait même parvenir à entraîner un système d’intelligence artificielle pour qu’il fasse lui-même de la recherche et, par la suite, on pourrait le dupliquer presque à l’infini.

« Et là, c’est comme si on avait un million de chercheurs du calibre maximal qui travaillent ensemble sur la prochaine version », dit Yoshua Bengio, qui craint que l’IA évolue alors plus rapidement que notre capacité à contrer ses dérives.

« Qu’est-ce que ça peut avoir comme conséquences ? Pour certains, ça peut aller jusqu’à l’extinction de l’humanité », explique M. Bengio d’un ton posé malgré l’horreur de ce scénario. Selon cette hypothèse, l’intelligence artificielle pourrait devenir incontrôlable et vouloir nous détruire1.

Même sans être aussi catastrophiste, on peut envisager des dérapages sérieux si une IA plus puissante et mal encadrée était utilisée à mauvais escient. « Ça va être tentant pour certains d’exploiter l’IA pour augmenter leur pouvoir afin d’avoir une influence économique, politique et militaire complètement excessive », prédit Yoshua Bengio.

Cette dérive potentielle inquiète aussi Sasha Luccioni, responsable de l’IA et du climat chez Hugging Face. Lors d’une récente conférence (TED Talk), elle a dit croire que « nous faisons fausse route avec l’intelligence artificielle aux dépens de l’humanité et de la planète2. »

Appelée à préciser sa pensée, elle montre du doigt le contrôle exercé par une poignée de grandes entreprises américaines (Google, Facebook, OpenAI, Nvidia, etc.). Actuellement, déplore-t-elle, ce sont essentiellement ces entreprises qui dictent « dans quelle direction » vont les développements de l’intelligence artificielle.

Ces entreprises ont par-dessus tout décidé que ce qui est « le plus utile », pour tirer profit des développements de l’IA, « c’est de faire des publicités ciblées pour nous recommander des choses qu’on n’achèterait pas autrement et pour faire de la surveillance massive et aider les États totalitaires », déplore Sasha Luccioni.

Elle est également préoccupée par la formation d’une « bulle » financière en IA. C’est qu’on assiste, selon Sasha Luccioni, à un « recyclage de fonds » entre ces grandes compagnies et bien peu de « vraie création de valeur ».

Titulaire de la Chaire Justice sociale et intelligence artificielle de l’Université Laval, la chercheuse consacre le plus clair de son temps à examiner les dégâts environnementaux provoqués par les développements de l’IA.

Le bilan est déjà décourageant.

PHOTO DOMINICK GRAVEL, ARCHIVES LA PRESSE

Sasha Luccioni, responsable de l’IA et du climat chez Hugging Face

« On voit actuellement une expansion assez massive des centres de données qui sont construits un peu partout dans le monde, surtout en Europe et en Amérique du Nord, peu importe les conséquences planétaires. Donc : peu importe les quantités d’énergie requises ou l’eau que ça va nécessiter. »

Mais la concentration du pouvoir en IA est également problématique parce qu’elle nous fait prendre « une route de non-durabilité au sens large ». Elle est donc tout aussi « insoutenable sur le plan de la justice sociale, de l’équité, et du partage des bénéfices », estime-t-elle.

Le Salon du livre de Montréal n’est généralement pas le genre d’endroit où l’on s’attend à rencontrer des protestataires combatifs. Pourtant, lors de la plus récente édition de l’évènement, une vingtaine d’illustrateurs d’ici ont brièvement troqué leurs crayons contre des pancartes et manifesté contre les percées de l’IA dans le milieu de l’édition.

« Ce qu’on dénonçait, c’est que certains éditeurs utilisent l’intelligence artificielle générative, mais reçoivent quand même des subventions culturelles », explique l’organisateur de cette manif, Pascal Colpron, notamment connu pour avoir illustré les BD de la série Mort et déterré.

Ces illustrateurs se rebellent parce que l’impact de l’intelligence artificielle se fait déjà sentir dans leur milieu. Pascal Colpron prédit que si rien n’est fait, la situation continuera de se détériorer rapidement au cours des prochaines années.

Dans la foulée de la manifestation, Pascal Colpron et une demi-douzaine d’autres illustrateurs québécois ont créé le Regroupement pour l’art humain (RAH) qui milite « en faveur d’une création véritablement humaine ».

Au bout du compte, c’est le milieu des arts au grand complet qui est menacé au cours des cinq prochaines années, estime l’illustrateur Pascal Colpron, qui exhorte les élus à mettre « leurs culottes » et à s’entendre rapidement « sur ce qu’on doit faire pour conserver notre culture québécoise ».

Il n’y a pas que les artistes qui doivent s’inquiéter. L’avenir du travail est en jeu.

On signale déjà dans d’autres secteurs (dont l’informatique !) que les embauches de jeunes diplômés pour pourvoir des postes d’employés dits « juniors » ont ralenti.

« Les économistes ne sont pas d’accord entre eux sur l’impact, mais c’est quand même probable qu’on va se retrouver avec beaucoup de gens qui vont perdre leur emploi. Et c’est aussi ce qui motive des compagnies. Le gros magot, c’est d’automatiser la moitié de l’économie », affirme Yoshua Bengio3.

Si on examine l’impact à venir de l’IA sur nos sociétés, on doit aussi aborder celui, majeur, de la « slopification ».

La quoi ?

Désigné mot de l’année 2025 par le dictionnaire Merriam-Webster, slop est utilisé pour décrire du contenu de piètre qualité produit par l’intelligence artificielle en grande quantité. Pour traduire slop, l’Office québécois de la langue française propose le terme contenu dégénératif.

Professeur titulaire au Centre Urbanisation Culture Société de l’Institut national de la recherche scientifique, Jonathan Roberge estime que « ça commence à être de plus en plus préoccupant… voire dangereusement préoccupant ! ».

PHOTO EDOUARD PLANTE-FRÉCHETTE, LA PRESSE

Jonathan Roberge, professeur titulaire au Centre Urbanisation Culture Société de l’Institut national de la recherche scientifique

Notre capacité à faire sens de l’information va être de plus en plus réduite. Ça pose une quantité de questions parce que si on ne comprend plus du tout le monde dans lequel on vit, c’est problématique en soi, mais aussi parce que moins on va savoir, plus on va foncer tête première. Et c’est un phénomène qui est aussi politique.

Jonathan Roberge, professeur titulaire au Centre Urbanisation Culture Société de l’Institut national de la recherche scientifique

« Les sociétés sont construites sur un certain nombre d’institutions. Là, on met à mal beaucoup de ces institutions-là : la vérité, la culture, le journalisme, etc. Il y a un coût énorme à ça », ajoute-t-il.

Jonathan Roberge rappelle que Yoshua Bengio et d’autres experts avaient réclamé il y a deux ans une pause dans le développement des systèmes d’IA. Il avait vu cette initiative d’un bon œil.

« On n’a aucune idée des effets néfastes sur les adolescents d’un point de vue psychologique, sur les suicides, sur le travail. Il y a plein, plein de zones d’ombre qu’on est en train de remplir à grands coups de contenu pollué, dénonce-t-il. Et jamais on ne pose de questions sur le type d’action qui va préserver l’esprit critique. »

Eric Martin et Sébastien Mussi, eux, incitent carrément à refuser l’IA. Tous deux professeurs de philosophie au collégial (respectivement au cégep Saint-Jean-sur-Richelieu et au collège de Maisonneuve) et auteurs du livre Bienvenue dans la machine : enseigner à l’ère numérique, ils voient déjà les impacts négatifs de ces outils.

PHOTO MARCO CAMPANOZZI, ARCHIVES LA PRESSE

Sébastien Mussi, professeur de philosophie au collège de Maisonneuve

Sébastien Mussi se dit « terrifié » par la perte d’imagination de ses élèves, qui se tournent vers l’IA pour générer les idées pour leurs travaux. Il y a quelques années, lorsqu’il enseignait le concept d’utopie, il demandait aux élèves d’imaginer leur propre utopie.

« C’est un travail exigeant, qui demande plusieurs heures de travail et qui doit être fait à la maison, dit-il. Je ne peux plus faire ça aujourd’hui parce que les élèves utilisent l’IA pour le faire. Autrement dit, mes étudiants sont privés de la possibilité d’imaginer leur société parfaite, d’imaginer le monde autrement que ce qu’il est. »

En plus des lacunes en écriture dues à l’utilisation de l’IA, Eric Martin s’inquiète surtout d’un problème de « déchargement cognitif ».

« On confie à la machine notre capacité de prise de décision, ce qui fait que l’humain se retrouve à la remorque de la machine, estime-t-il. On se dirige vers des sociétés qui ne peuvent plus décider par elles-mêmes. »

« À la vitesse où ça se déroule, dans cinq ans, on sera à un degré catastrophique », prédit Sébastien Mussi.

Six périls de l’IA

Cinq façons de tendre vers le mieux

PHOTOMONTAGE LA PRESSE

L’IA nous réserve-t-elle des miracles ou des catastrophes ? Probablement un peu des deux. Mais il existe des actions que nous pouvons prendre dès maintenant pour faire pencher la balance du bon côté. En voici cinq recommandées par Gillian Hadfield, une sommité en IA qui est titulaire d’une Chaire CIFAR de l’Institut Vecteur et professeure à l’Université Johns Hopkins, à Baltimore.

Résumé

[
Philippe Mercure
Philippe Mercure La Presse

](https://www.lapresse.ca/auteurs/philippe-mercure)

Réglementer l’IA

Vous cherchez des conseils juridiques ? Aujourd’hui, seuls les avocats et les conseillers juridiques sont autorisés à vous en donner. Ils doivent être diplômés et appartenir à un ordre professionnel. Ils peuvent être sanctionnés s’ils font mal leur travail.

Gillian Hadfield y voit un inconvénient : cela contribue à freiner l’accès à la justice. L’intelligence artificielle pourrait améliorer les choses. Mais pour l’instant, tout ce qui s’offre à vous est de consulter ChatGPT – sans aucune garantie de qualité.

PHOTO TIRÉE DU SITE DE L’UNIVERSITÉ DE TORONTO

Gillian Hadfield, professeure à l’Université Johns Hopkins

« Si nous voulons utiliser davantage l’IA pour obtenir des conseils juridiques, il faut tout un nouveau système réglementaire autour de ça, estime la professeure Gillian Hadfield. Nous avons besoin d’un mécanisme qui garantit la confiance, qui teste ce qui sort de l’IA, qui accorde des licences. » Au Québec, on peut penser qu’une telle réglementation pourrait être confiée au Barreau du Québec.

Mme Hadfield estime que la même chose doit être faite dans tous les domaines. Elle incite aussi à instaurer une responsabilité juridique autour des agents d’IA qui écrivent du code, effectuent des transactions et agissent sur le monde.

« Nous n’avons pas encore résolu la question de savoir qui est responsable des actions d’un agent d’IA, souligne-t-elle. J’estime qu’il faut un nouveau régime légal. Les agents doivent posséder une identification, il doit y avoir une traçabilité, on doit pouvoir remonter jusqu’à l’humain derrière. »

Elle compare la situation aux entreprises – des entités considérées comme des « personnes morales » avec des obligations. Les entreprises d’IA possèdent ce statut, mais les agents qu’elles créent devraient aussi l’avoir, plaide Gillian Hadfield.

Adopter l’IA

L’idée ne plaira pas à ceux qui soutiennent qu’on devrait refuser l’IA, mais Gillian Hadfield estime qu’on doit au contraire l’utiliser.

« Si on veut tirer des bénéfices de l’IA, on doit commencer à l’utiliser, dit-elle avec une logique implacable. C’est vrai pour les individus, les entreprises, les gouvernements. »

Gillian Handfield nous incite à utiliser l’IA non seulement pour nous amuser à créer de fausses images ou de nouvelles chansons, mais surtout pour nous attaquer à nos vrais problèmes.

Mais l’adopter, n’est-ce pas aussi courir le risque que les dangers de l’IA l’emportent sur les bienfaits ? La spécialiste nous renvoie au premier point. La régulation et l’adoption, selon elle, vont de pair. Plus les gens adopteront ces outils, plus cela mettra de la pression sur les régulateurs pour l’encadrer. Et plus l’IA sera régulée, plus les gens auront confiance et l’utiliseront.

Briser (en partie) la boîte noire

On compare souvent l’IA à une boîte noire à cause de sa complexité. Quand vous posez une question à ChatGPT ou à Gemini, il y a tellement de paramètres impliqués qu’il est à peu près impossible de savoir quel chemin a suivi la machine pour vous fournir une réponse.

« Mais l’IA est une boîte noire pour une autre raison : avec nos règles actuelles de propriété intellectuelle, tout ce que développent les entreprises privées est considéré comme un secret commercial protégé », dit Gillian Hadfield.

Or, dans ce domaine en particulier, l’opacité est devenue trop grande. La professeure Hadfield fait remarquer que si la plupart d’entre nous sont incapables de construire une voiture, on peut au moins la démonter pour comprendre son fonctionnement. C’est devenu impossible avec l’IA. Même les grandes universités n’ont plus les moyens de reproduire les modèles d’OpenAI, de Google ou de Meta.

« Je pense que ces technologies sont si complexes et ont des impacts si grands qu’il faut revoir les règles de propriété intellectuelle », dit-elle.

Réaligner l’IA sur nos institutions sociales

Au sein des entreprises d’intelligence artificielle comme OpenAI, vous trouvez des gens responsables de ce qu’on appelle « l’alignement ». Leur rôle : guider le modèle en récompensant ses « bonnes » réponses et en décourageant celles jugées moins appropriées.

Mais selon quels critères ces réponses sont-elles évaluées ? Pour l’instant, ces réflexions sont réalisées à l’intérieur des entreprises, de façon opaque.

Gillian Hadfield estime que cet alignement doit plutôt se faire en fonction des institutions dont se sont dotées nos sociétés : gouvernements, cours de justice, centres de services scolaires, etc.

« L’alignement a toujours été un défi fondamental pour l’humain. Comment amener des gens qui agissent naturellement en fonction de leurs propres intérêts à faire ce qui est bien pour le groupe ? La réponse à cela, ce sont les institutions », dit-elle.

« Si on veut introduire ces systèmes d’IA dans nos sociétés, ils doivent, comme les humains et les organisations humaines, être alignés avec les institutions », résume-t-elle.

Utiliser le marché pour réguler l’IA

Comment s’assurer que les systèmes d’IA n’aident pas les terroristes à fabriquer une bombe ? Qu’ils ne fournissent pas des conseils inappropriés à nos adolescents ? Qu’ils ne renforcent pas les biais et les stéréotypes ?

Pour les gouvernements, surveiller tout cela peut rapidement devenir une tâche tentaculaire. C’est pourquoi Gillan Hadfield propose de la confier… au marché. J’ai déjà décrit cette idée dans un article précédent1. Le principe : obliger les entreprises à faire tester leurs systèmes par d’autres entreprises, un peu comme on les oblige à faire vérifier leurs états financiers par des firmes spécialisées.

« Prenez le risque qu’un agent conversationnel encourage un adolescent à se suicider, illustre Gillian Hadfield. Une entreprise qui a développé des méthodes pour tester et empêcher cela pourrait faire une demande afin d’obtenir une licence du gouvernement et faire ce travail de vérification. »

La Californie et l’Ohio travaillent aujourd’hui sur des législations en ce sens.

Qui est Gillian Hadfield ?

  • Professeure en alignement et gouvernance de l’IA à la School of Government and Policy et à la Whiting School of Engineering de l’Université Johns Hopkins.
  • Titulaire de la Chaire CIFAR en IA de l’Institut Vecteur.
  • En congé sabbatique de l’Université de Toronto, où elle est professeure de droit et de gestion stratégique.
  • Ancienne conseillère pour la firme OpenAI.
  • A enseigné dans de nombreuses universités américaines comme professeure ou professeure invitée, dont University of Southern California, New York University, University of California Berkeley, University of Chicago, Harvard et Columbia.

1. Lisez le texte « Gillian Hadfield : le marché pour réglementer l’IA »

https://www.lapresse.ca/contexte/intelligence-artificielle/salutaire-ou-catastrophique/2026-01-11/cinq-facons-de-tendre-vers-le-mieux.php

L’esprit critique face à l’IA : philosopher est-il encore d’actualité?

Après une année qui n’a cessé de surprendre par l’abondance de ses avancées technologiques, la pensée critique serait-elle menacée par des machines qui proposent un traitement instantané de l’information?

Résumé

Publié à 4 h 00 HNE
Attablés dans une salle de conférence de l’Université Laval, les professeurs de philosophie Arturs Logins et Pierre-Olivier Méthot l’admettent : l’avènement de l’intelligence artificielle dans leurs salles de classe a remué leurs méthodes d’enseignement.

C’est comme une vague qui déferle et qui prend de l’ampleur à chaque semaine, illustre ce dernier, qui est aussi doyen de la Faculté de philosophie. Ça fait mal au cœur de renoncer à certains types d’évaluation parce qu’on craint qu’il y ait des utilisations abusives ou non autorisées de l’IA, poursuit M. Méthot. Il a notamment choisi de ramener les examens oraux dans ses cours.

Son collègue, qui enseignera un cours sur les enjeux philosophiques et éthiques de l’intelligence artificielle cet hiver, reconnaît avoir mis de côté les travaux de recherche réalisés à la maison. Je demande des travaux d’essai. On les rédige en classe avec un stylo, avec un crayon, sur le papier. On ne prend pas de risques. Je pense que c’est tellement important de pouvoir réfléchir et faire sa propre pensée, explique Arturs Logins.

Pierre-Olivier Méthot et Arturs Logins sont professeurs de philosophie à l’Université Laval.

Photo : Radio-Canada / Vincent Gosselin

Il fait le parallèle avec l’utilisation de la calculatrice dans les cours de mathématiques qui, à une époque pas si lointaine, était perçue comme une menace pour l’aptitude à réaliser des calculs mentaux.

Publicité

AILLEURS SUR INFO : La dette coloniale imposée à Haïti revient hanter le débat en France

À un moment donné, on a fait le choix, dans l’éducation, de laisser les élèves utiliser les calculatrices. […] On relègue certaines opérations à la calculatrice, mais d’autres opérations un peu plus poussées, on demande aux élèves de les faire. Peut-être que c’est une voie aussi en philosophie à explorer, mais qui sait?

Un intérêt encore de nos jours?

Le doyen de la Faculté de philosophie de l’Université Laval le concède : des difficultés de recrutement se font sentir au premier cycle. Même s’il avance que le nombre d’inscriptions est en hausse de 17 % depuis deux ans tout programme confondu, c’est le baccalauréat en philosophie qui voit son nombre d’étudiants diminuer.

Pour tenter de renverser cette tendance à la baisse, Pierre-Olivier Méthot dit s’être doté de la mission de rebâtir les ponts avec les cégeps. Certains étudiants collégiaux ont notamment passé une semaine immersive dans les cours de philosophie de l’Université au printemps dernier. On essaie d’aller rencontrer les étudiants là où ils se trouvent.

De l’avis des deux universitaires, les jeunes auraient tout avantage à faire une place à cette discipline dans leur parcours scolaire, et ce, malgré le développement effréné de l’intelligence artificielle. Ce sont des aptitudes qui sont aussi très recherchées par le marché du travail, constate le doyen.

Sa faculté offre depuis peu la possibilité de faire un stage en milieu professionnel ou communautaire pendant le baccalauréat, question de démontrer aux étudiants que les débouchés sont peut-être plus nombreux qu’ils ne pouvaient l’imaginer en intégrant le programme.

La Faculté de philosophie de l’Université Laval, qui occupe des locaux du pavillon Félix-Antoine-Savard, a souligné, en 2025, ses 90 ans d’existence.

Photo : Radio-Canada / Vincent Gosselin

Quand on regarde ce qui se passe sur le marché du travail, on constate que nos étudiants et nos étudiantes qui sont capables d’analyser des textes compliqués, complexes, qui sont capables d’en produire eux-mêmes, qui écrivent bien, qui sont capables de bien s’exprimer à l’oral et à l’écrit, lorsqu’un employeur tombe sur un étudiant ou une étudiante de ce calibre, après, il ne peut plus s’en passer, soutient-il.

Publicité

Si les étudiants en philosophie étaient traditionnellement encouragés à acquérir une expérience d’enseignement collégial, ils peuvent désormais mettre en pratique leur connaissance d’une discipline universitaire souvent perçue comme purement théorique.

La philosophie du pourquoi? de Bruno Marchand

L’aspect pratique de la pensée critique résonne chez l’actuel maire de Québec, Bruno Marchand, lui-même diplômé en philosophie. J’aimais la question ‘‘Pourquoi?’’. J’avais besoin de répondre au pourquoi et je trouvais que la philo était une façon d’y répondre.

C’est dans cette optique, et non pour remplir les cases d’un plan de carrière tracé d’avance, qu’il s’est dirigé vers cette discipline, qu’il regarde néanmoins d’un œil critique. L’ancien directeur général de Centraide Québec et Chaudière-Appalaches assure ne pas s’être senti interpellé par les grands concepts vaporeux. J’ai trouvé, à certains égards, la philosophie très loin du quotidien et ça, pour moi, c’est une philosophie qui se perdait.

Bruno Marchand reconnaît avoir en lui un côté utopiste qui l’amène à viser la lune et à débattre des grandes idées. Or, ce qui l’anime encore plus, ce sont les étapes à franchir jour après jour pour parvenir aux rêves qu’il souhaite réaliser, raconte-t-il.

Bruno Marchand a été assermenté maire de Québec le 14 novembre 2021. (Photo d’archives)

Photo : Radio-Canada / Jean-Michel Cloutier

Encore aujourd’hui, c’est la question du pourquoi qui l’habite et qui le guide sur la scène municipale. Je trouve que c’est une question qu’on ne pose pas assez. Je trouve qu’on a le jugement rapide sur tout.

À toute étape de la vie, c’est quand on arrête de penser qu’on est un mauvais éboueur ou un mauvais médecin ou un mauvais politicien.

Une citation de Bruno Marchand, maire de Québec

M. Marchand cite l’idée de l’exposition universelle sur l’eau qui a surgi pendant la campagne électorale municipale de l’automne. A priori, je n’étais pas ni chaud ni froid. OK, mais pourquoi? Il a finalement démontré une ouverture pour le projet, mais, selon lui, d’autres politiciens auraient agi sans se questionner sur les fondements de l’idée. Souvent, on est gouverné par notre ego. Particulièrement en politique, on a des politiciens, souvent, qui, si ce n’est pas leur idée, c’est pas bon, dénonce-t-il.

Le maire de Québec croit également que son bagage philosophique l’incite à demeurer nuancé sur l’épineuse question du troisième lien. Ceux qui sont contre quand je ne me positionne pas me mettent du clan des pour. Ceux qui sont pour quand je ne me positionne pas me mettent du clan des contre. En même temps, mon propos a toujours été empreint de philosophie et de dire : ‘‘Pourquoi?’’.

Il est d’avis que le doute apporté par la philosophie l’aide à prendre des décisions à l’hôtel de ville. C’est facile avoir des cadres pour des décisions, mais si ces cadres-là deviennent rigides au point où l’on ne prend plus de décisions, on peut être remplacé par un robot. Pour Bruno Marchand, le doute qui pousse à se mettre dans la peau de l’autre permet de remettre en question, d’être influencé, d’être bouleversé, de revoir le monde sous un œil différent. Et ça, pour moi, c’est de la philosophie.

Le doute qui remet en question mes propres biais de confirmation. Le doute qui remet en question mes propres jugements. Bien voyons donc, as-tu vu ce que lui a fait? […] Est-ce que tu connais son parcours? Est-ce que tu connais ce qui l’amène à faire ça? Est-ce que tu connais pourquoi l’itinérant, il est dans la rue?

Une citation de Bruno Marchand, maire de Québec

Bruno Marchand est d’avis que le doute apporté par la philosophie l’aide à prendre des décisions à l’hôtel de ville. (Photo d’archives)

Photo : Radio-Canada / Anne-Sophie Roy

Le premier magistrat est toutefois conscient que l’appellation de politicien-philosophe n’est pas toujours perçue positivement à une époque où la réflexion critique peut sembler contraire aux habitudes forgées par les nouvelles technologies. Il se souvient d’un adversaire politique qui s’était vanté de ne pas être philosophe, en faisant référence à son parcours.

À un moment donné, il y a un opposant qui avait dit : ‘‘Moi, je ne suis pas philosophe, là!’’ en essayant de remettre sur mon parcours un peu de noirceur parce qu’être philosophe, c’est être un espèce de pelleteux de nuages loin des gens. Au contraire, la philosophie, elle est dans toutes les vies.

Choisir la philosophie en 2026

La philosophie se retrouve même dans une marche que prennent des étudiants, un midi glacial de novembre, sur le campus de l’Université Laval. Quand on prend les philosophes de la Grèce antique, ils marchaient beaucoup, explique Vincent Rochelle, étudiant au doctorat, qui a eu l’idée de réunir quelques camarades de classe et des membres du corps professoral pour parler de philosophie le temps d’une petite randonnée.

Je pense que, quand on déambule aussi dans l’espace, ça nous permet de déambuler aussi à travers les idées, à travers les concepts, ajoute-t-il. Une dizaine de personnes ont répondu à l’appel de la Faculté de philosophie pour se demander : Devrait-on se contenter de ce que l’on a?.

Laurence Lévesque, qui fait aussi son doctorat en philosophie, en discute avec sa directrice de thèse, Catherine Rioux, pendant cette marche qui leur servira de pause à travers le rythme soutenu de leurs recherches. Est-ce que c’est se contenter par rapport au matériel?, soulève-t-elle pour commencer. Chose certaine, ce n’est pas pour des raisons financières si la jeune femme a quitté sa vie d’entrepreneuse pour amorcer des études en philosophie.

Catherine Rioux est professeure adjointe à la Faculté de philosophie de l’Université Laval et Laurence Lévesque est étudiante au doctorat.

Photo : Radio-Canada / Vincent Gosselin

C’est vraiment par passion personnelle. C’est vraiment un sujet qui me passionne depuis que je suis jeune adolescente, résume-t-elle. C’est sûr que ça limite ton ascension financière, si je peux dire. […] Dans tes années cruciales de ta vie d’investissements, de faire peu d’argent, c’est là que ça peut être une forme de sacrifice. Pour moi, ce sacrifice en vaut totalement la peine.

La philo, c’est clairement pas un choix sûr!, rigole sa directrice de recherche. Ayant préalablement obtenu un diplôme en gestion, Laurence Lévesque constate un manque d’éducation sur la philosophie et sur son utilité pour l’individu et la société.

Bien que la discipline soit intégrée au tronc commun dans les cégeps de la province, des fois, il y a peut-être un manque de maturité, c’était quand même mon cas, où tu n’es peut-être pas réceptif au contenu, poursuit-elle. Le goût de se plonger dans l’étude de la philosophie s’est donc manifesté plus tard dans son parcours, après avoir fondé une première entreprise. J’ai toujours voulu être entrepreneuse, confie celle qui ne voit pas l’enseignement comme le seul aboutissement d’un doctorat en la matière.

Une dizaine de personnes ont répondu à l’appel de la Faculté pour discuter de philosophie lors d’une marche en plein air.

Photo : Radio-Canada / Vincent Gosselin

L’expérience collégiale de la philosophie n’a pas non plus été concluante pour Catherine Rioux. Je n’allais pas à mes cours!, admet-elle. Pourtant, elle occupe aujourd’hui un poste de professeure adjointe à l’Université Laval. C’est en voyageant, dans sa jeunesse, qu’elle a croisé des gens qui l’ont initiée à la philosophie et aux œuvres de Jean-Paul Sartre.

Son désir d’enseigner la discipline est apparu lorsqu’elle a suivi un cours du professeur Thomas De Koninck portant sur Platon. J’ai appris qu’il existait des textes dont le but était de convaincre. Je me suis dit : ‘‘OK, c’est ce genre de textes-là que je veux écrire’’.

Les De Koninck, des intellectuels influents

La famille De Koninck a laissé sa marque dans le paysage intellectuel de la région de Québec. Thomas De Koninck a été à la tête de la Faculté de philosophie de l’Université Laval de 1974 à 1978. Son père, Charles, en a lui aussi été le doyen pendant près de 20 ans. Il prête aujourd’hui son nom à l’un des principaux pavillons du campus de l’université.

Thomas De Koninck a été doyen de la Faculté de philosophie de l’Université Laval de 1974 à 1978. (Photo d’archives)

Photo : Carl Labrie

Dans un auditorium de 100 personnes, il [Thomas De Koninck] avait l’air de connaître le nom de chaque personne. Il avait vraiment un contact humain et une ouverture à la discussion incroyables. Peu importe ce que l’étudiant disait, il avait toujours moyen de rattraper ce que l’étudiant disait pour faire ressortir quelque chose d’intéressant, se remémore Mme Rioux.

Toi aussi, tu fais ça!, s’empresse de lui dire Laurence. Du moins, de faire sentir la personne comme si elle avait dit quelque chose d’intéressant même si, parfois, c’est pas toujours le cas.

Je me dis, la personne qui vient en classe, qui essaye, qui a pris le temps d’être là, elle a réfléchi, elle a fait de son mieux. Elle lève la main, elle a le courage d’intervenir. Il y a sûrement quelque chose de bon dans ça, analyse la professeure adjointe. Le premier travail du professeur, c’est motiver les étudiants à apprendre, leur donner le goût. Parce que, si tu as la motivation, après, tu peux faire des choses qui ont des applications pratiques ou instrumentales.

Après, sky’s the limit!, conclut Laurence.