Le parc Mission Dolores, dans le quartier Mission, à San Francisco
On parle beaucoup de Montréal comme d’un des pôles de l’intelligence artificielle, mais d’autres villes dans le monde se positionnent également. Dans chacun de ces pôles, des dizaines de milliers de chercheurs s’activent, de jeunes pousses émergent et de grands acteurs tentent de se placer en position dominante. Tour d’horizon.
Publié le 28 février
Didier Bert Collaboration spéciale
San Francisco
Avec la Silicon Valley, San Francisco est à la pointe de l’essor de l’intelligence artificielle (IA). Ce pôle est celui où ont éclos OpenAI et son agent conversationnel ChatGPT. C’est aussi une région qui concentre plusieurs grands acteurs technologiques, comme Google, Apple et Facebook, qui détiennent des masses considérables de données, permettant d’entraîner des modèles d’IA. Ce bastion technologique comprend également des universités de pointe comme Stanford et Berkeley, qui abritent des centres de recherche sur l’IA. L’ensemble de ces acteurs entretient une culture de l’innovation qui se développe depuis plusieurs décennies à San Francisco et dans la Silicon Valley. Ce pôle fait figure de chef de file actuel de l’IA.
La Chine a l’ambition affichée de devenir le leader mondial de l’IA. Et elle s’en donne les moyens. Renommée pour ses activités de pointe en robotique et en IA, la ville de Shenzhen concentre de nombreux chercheurs et des entreprises pionnières. Parmi les entreprises, Tencent AI développe une offre d’intelligence artificielle pour augmenter la productivité des programmeurs. Cette entreprise est réputée en Chine pour sa messagerie WeChat et ses activités dans les jeux vidéo. Huawei développe son Intelligent Operation Center qui traite des données en temps réel sur les moyens de transport. Toujours à Shenzhen, l’assureur Ping An entend établir une assurance sur mesure, basée sur l’IA, pour chacun de ses clients.
La capitale du Royaume-Uni est une autre place forte de l’intelligence artificielle. Ses universités prestigieuses de Cambridge et d’Oxford développent des recherches et des formations de pointe dans le domaine de l’IA. Londres est aussi le siège de DeepMind, une filiale de Google spécialisée en IA qui vise à comprendre le fonctionnement du cerveau humain et à développer l’apprentissage autonome. C’est à Londres qu’est installée la firme prometteuse Stability AI, connue pour sa plateforme de génération d’images Stable Diffusion. La capitale britannique fourmille de jeunes pousses, appuyées par les capitaux disponibles dans cette place financière de premier plan.
Le centre-ville de Seattle, avec sa tour emblématique, la Space Needle
Seattle, ce n’est pas seulement Boeing et l’aérospatiale. Après San Francisco, il s’agit de la ville américaine où il y a le plus de recrutement dans le domaine de l’IA. L’écosystème d’IA de Seattle compte l’Institut Allen pour l’intelligence artificielle, ainsi que l’Université de Washington et ses centres de recherche spécialisés, tels que son laboratoire de l’IA pour les sciences biomédicales, son groupe de science des données comportementales, son laboratoire H2 centré sur le traitement du langage naturel. C’est aussi à Seattle que sont les sièges sociaux des géants Microsoft et Amazon. Cette dernière a annoncé début février qu’elle investirait plus de 100 milliards de dollars américains dans l’infonuagique et l’IA au cours de l’année 2025.
Telus utilisera des processeurs Nvidia dans un nouveau centre d’IA à Rimouski.
Ce n’est pas le projet Stargate américain de 500 milliards US. Mais en convertissant un centre de données de Rimouski en un centre pour l’intelligence artificielle, Telus ajoute une pièce maîtresse et vitale pour créer un écosystème d’IA entièrement canadien.
Telus ne le divulgue pas, mais l’investissement se chiffrerait en millions de dollars. Le fait que le bâtiment soit déjà existant, et qu’il était prêt à accueillir la quincaillerie dense et complexe typique d’un centre d’IA, aide à en minimiser le coût de l’opération, explique à La Presse le chef des services technologiques de Telus, Nazim Benhadid.
« Notre centre était déjà prêt pour cette application », dit-il. « En plus, il est modulaire, il pourra grandir avec la demande. Et il est très efficace : il consomme trois fois moins d’énergie que la moyenne des autres centres d’IA, et il a besoin de 75 % moins d’eau pour fonctionner. »
Quand il entrera officiellement en fonction d’ici cet été, ce centre deviendra le plus important en son genre au Canada. Telus est bien implanté à Rimouski, où son réseau de fibre optique est déjà déployé, ce qui en fait un endroit logique pour ce nouvel établissement. Sa capacité de traitement d’applications d’IA sera mise à la disposition des entreprises, des organismes et des chercheurs de partout au pays, et vendue à la demande, une formule que Telus appelle « l’IA en tant que service », ou AIaaS (« AI as a service », en anglais).
Telus, dont le siège social est à Vancouver, s’est entendu avec Nvidia pour équiper son « centre d’IA souveraine » de la dernière génération des processeurs graphiques (GPU) du fabricant de processeurs américain. Ce dernier est devenu au fil des derniers mois la référence en matière de processeurs destinés à l’entraînement puis au fonctionnement des applications d’IA dernier cri.
Ce sont des processeurs Hopper et Blackwell de Nvidia qui animeront le centre d’IA de Telus. Ils assureront l’entraînement des modèles d’IA et fourniront des capacités évoluées de traitement des données.
180 milliards US d’ici 2030
Un des plus importants pôles de recherche en IA dans le monde, le Canada traîne la patte en termes d’infrastructure pour héberger le fruit de cette recherche. Le gouvernement fédéral a annoncé l’an dernier son intention d’investir 700 millions afin d’accélérer la construction de centre pour héberger des données et des applications d’intelligence artificielle.
Cette technologie représente un marché en pleine croissance, selon les spécialistes. Microsoft établit à 180 milliards US les revenus annuels que pourrait générer d’ici 2030 l’IA générative, cette partie de l’IA très en vogue ces jours-ci en raison de la popularité de dialogueurs web comme ChatGPT d’OpenAI.
Cette croissance est stimulée par un désir d’adoption de la technologie qui est présent dans de nombreuses industries, ce que ne manque pas de dénoter le chef des services technologiques de Telus. Il voit une demande pour l’IA dans des secteurs comme l’agriculture, la santé et les services financiers, entre autres, et plusieurs clients éventuels lui parlent également de l’importance d’une infrastructure souveraine, canadienne, encore plus dans le contexte de guerre commerciale qui oppose désormais le Canada aux États-Unis.
« Il y a bien des cas où la souveraineté des données est importante, que ce soit hébergé et traité au Canada. Ce n’est pas 100 % du temps, mais c’est critique dans bien des cas », dit Nazim Benhadid.
« Non seulement les réponses [des robots conversationnels] peuvent être souvent douteuses, voire carrément fausses, mais on habitue surtout les internautes à se fier à une réponse toute mâchée sans références », écrit notre éditeur adjoint.
« La fortune personnelle de Pierre Poilievre pourrait se situer entre 3 et 25 millions de dollars canadiens. »
Cette information est fausse. Mais c’est néanmoins ce que vous répond le robot d’intelligence artificielle Perplexity, l’un des plus précis sur le marché, si vous l’interrogez sur les avoirs du chef du Parti conservateur.
Pourquoi une telle réponse sous forme de mensonge ? Parce que le robot se nourrit de ce qu’il trouve sur le web, et parmi les sites de référence qu’il moissonne se trouve un site web frauduleux dont on ne connaît pas l’origine, pierrepoilievrenews.ca.
C’est même le tout premier site que Perplexity cite parmi ses sources, une liste des références utilisées, propre à cet engin, qui est censée prouver… la rigueur de ses recherches !
Cette anecdote est bien sûr dans l’air du temps et confirme ce qu’on sait déjà : distinguer le vrai du faux est chaque jour plus compliqué.
C’est Radio-Canada qui a révélé cette histoire touchant les avoirs de Pierre Poilievre après avoir constaté qu’elle faisait jaser sur les réseaux sociaux, où des usagers exprimaient leur colère face à la fortune d’un homme qui n’a jamais occupé d’autre emploi que celui de député…
Préparons-nous à être de plus en plus confrontés à des histoires similaires, car à la base, on retrouve la recherche conversationnelle avec les robots, une pratique de plus en plus courante. Certains prédisent même que ce genre de recherches où vous posez votre question à l’engin remplacera la recherche classique, du type « moteur de recherche Google » qui mène à une liste de liens web.
Pas étonnant : les modèles comme Perplexity, ChatGPT, Gemini, DeepSeek ou Claude sont très conviviaux. Ils permettent aux utilisateurs de poser des questions complexes de manière naturelle (« Quelle est la fortune personnelle de Poilievre ? ») et d’obtenir des réponses synthétisées, plutôt qu’une série de liens avec des aperçus qu’il faut analyser, puis sur lesquels il faut cliquer pour creuser.
Mais ce qui me frappe plus encore que les prouesses de l’un et de l’autre, c’est le manque de fiabilité hallucinant (notez le jeu de mots, ici…) de ces moteurs de recherche.
Bien sûr, l’IA va s’améliorer, bien sûr, il y a des risques plus grands pour l’humanité que des réponses erronées à des questions banales.
Mais je demeure profondément troublé en voyant que l’IA gagne en popularité, particulièrement chez les jeunes, pour faire plein de choses diverses, y compris de simples requêtes sur le web.
Non seulement les réponses peuvent être souvent douteuses, voire carrément fausses1, mais on habitue surtout les internautes à se fier à une réponse toute mâchée sans références, et ce, malgré que les données d’entraînement de l’IA puissent être « infectées » par des sites douteux et même des campagnes de désinformation.
Qu’on ne s’étonne pas, après, que des professeurs d’université qui demandent de sortir quelques textes d’actualité fiables se retrouvent devant des étudiants démunis et déconcertés (même à la maîtrise !), car ils ne savent plus s’informer. Plusieurs ne connaissent pas même le nom d’un seul site de nouvelles crédibles !3
Il faut donc rappeler, et rappeler encore les énormes risques de l’IA, même pour la plus banale des requêtes web.
À La Presse, où les règles d’utilisation sont plutôt sévères4, on permet l’utilisation de l’IA « comme un moteur de recherche ». Mais parce qu’on sait que les journalistes vont contre-vérifier, aller à la source, etc.
Autant de choses qu’il faudra maintenant apprendre aux utilisateurs du web de 7 à 77 ans si on ne veut pas verser dans un monde où la vérité aura encore moins de valeur qu’aujourd’hui.
Une étude de l’Université Stanford qui porte sur la fiabilité des moteurs de recherche génératifs a conclu qu’en moyenne, 25,5 % des citations ne soutiennent pas correctement les phrases qu’on leur associe. Pire encore, en moyenne, 48,5 % des phrases générées ne sont pas entièrement soutenues par des sources, des références ou des citations.
Quand on demande à ChatGPT s’il y a des risques à l’utiliser comme moteur de recherche, il répond que « même pour des questions apparemment simples (p. ex. : « Quelle est la capitale du Canada ? »), l’IA peut occasionnellement halluciner des faits, c’est-à-dire inventer des réponses plausibles, mais fausses. À cette question, la réponse de l’IA est donc rigoureusement exacte !
En tout, les quatre annonces devraient mener à la création de 220 emplois. Des rôles à haute valeur ajoutée, assure le PDG de Montréal International, puisque « ce ne sont pas de bureaux de vente » qu’il est question. Il y aura du développement, de la mise au point, bref, de la valeur ajoutée.
Tout ça n’est pas fortuit. Malgré son statut d’épicentre de la recherche en intelligence artificielle (IA), Montréal peine douloureusement à voir le fruit de cette recherche se transformer en entreprises durables, puis en produits qui deviendront profitables.
Dans ce contexte, pouvoir annoncer quatre projets de commercialisation d’applications d’IA, même s’ils sont de taille modeste, c’est un pas dans la bonne direction, conclut Stéphane Paquet.
Cette annonce survient dans le cadre de la conférence World AI Summit Americas 2025, qui a lieu au Palais des congrès de Montréal mardi et mercredi. La conférence elle-même, qui s’inscrit dans une série annuelle de sommets internationaux portant sur l’intelligence artificielle, témoigne de la position de choix que détient Montréal dans ce secteur.
Un des hauts dirigeants de l’entreprise annonçait qu’un client important souhaitait récupérer son argent le jour même dans une série de transferts bancaires confidentiels.
En le lisant, un employé établi à Hong Kong de la firme d’ingénierie britannique Arup a d’abord cru à une tentative d’escroquerie.
Puis est arrivée une demande de visioconférence organisée par le dirigeant en question. Le subterfuge n’a nécessité aucun piratage. La sécurité d’aucun réseau n’a été compromise. En quelques claquements de touches de clavier, des fraudeurs venaient de s’emparer de près de 40 millions.
Selon les enquêteurs, les escrocs ont utilisé des vidéos des dirigeants d’Arup accessibles sur YouTube pour imiter leur visage et leur voix.
Révélée l’an dernier, cette histoire qui a frappé Arup, une multinationale de 18 000 employés avec un chiffre d’affaires de près de 4 milliards de dollars canadiens, ne serait que la pointe de l’iceberg, à un moment où l’industrie mondiale de la fraude semble plus organisée, inventive et cruelle que jamais, comme on a pu le constater dans de récents dossiers d’Isabelle Hachey1 et d’Ariane Krol2.
Ex-enquêteur de la Sûreté du Québec spécialisé dans les crimes financiers, Paul Laurier note que ce type de fraude, appelée fraude du président, pourrait être beaucoup plus courante à l’avenir grâce à l’intelligence artificielle.
L’IA peut changer des visages, cloner des voix, créer des sites web. Tout est possible.
Paul Laurier, ex-enquêteur de la Sûreté du Québec spécialisé dans les crimes financiers
Jusqu’ici, on a pu détecter des tentatives de fraude ou d’hameçonnage en tentant de trouver des fautes de grammaire ou d’autres erreurs dans les messages qu’on recevait.
« Aujourd’hui, les faux sont plus vrais que nature. Ça devient très professionnel. J’ai l’impression que le nombre de gens qui vont se faire frauder va augmenter dans le futur, malheureusement. Comme société, on n’est pas prêt. Le gouvernement n’est pas prêt. »
Voix clonée
Steve Waterhouse, expert en cybersécurité, note que les organisations doivent effectuer un travail de fond pour prévenir la fraude.
« Il faut mieux authentifier les participants à une réunion virtuelle. C’est encore plus vrai quand il y a des participants de l’extérieur, ou des gens qu’on ne côtoie pas tous les jours », dit-il.
M. Waterhouse note aussi que les systèmes de reconnaissance vocale, notamment utilisés par certaines banques pour vérifier l’identité de leurs clients, peuvent être bernés. Un récent épisode de l’émission La facture à Radio-Canada a montré qu’une voix d’une cliente clonée par un logiciel a pu berner les systèmes de reconnaissance vocale de Desjardins, de la Banque de Montréal (BMO), de la Banque canadienne impériale de commerce (CIBC), de la Banque Scotia et de la Banque Toronto-Dominion (TD).
Cela démontre qu’on n’a pas encore de moyen d’identifier les gens par leur voix. Pourtant, bien des institutions financières ont pris ce virage. C’est fou !
Steve Waterhouse, expert en cybersécurité
Pendant que le doute s’installe sur la sécurité des mesures de protection contre la fraude, les fraudeurs avancent à toute vapeur.
L’an dernier, l’agence de publicité internationale britannique WPP a été la cible d’une escroquerie de type hypertrucage, dans laquelle des criminels ont utilisé un clone vocal et des images de YouTube du PDG de l’entreprise pour organiser une réunion vidéo Microsoft Teams avec des cadres de l’entreprise. L’affaire avait finalement échoué.
Selon une analyse de Deloitte, les arnaques de type hypertrucage pourraient coûter 40 milliards par année aux entreprises américaines.
Paul Laurier note que les fraudeurs font de faux sites et achètent des mots clés propulsés par Google, par Facebook. « Les moteurs de recherche, ils sont complices de ça. Ils ne vérifient pas si l’organisation est légitime. »
Les entreprises investissent pour se prémunir contre la fraude. Mais M. Laurier note que la prévention n’est pas toujours la priorité.
« La sécurité, c’est un coût. Donc, au bout du compte, ça réduit les bénéfices », dit-il.
Expert en fraude depuis des décennies, M. Laurier a lui-même failli se faire prendre l’an dernier par une arnaque sur l’internet. Après un dégât d’eau chez lui, il a cherché à louer un condo sur un site de location à court terme.
« L’appartement était parfait. À côté du Centre Bell. Mais avant de cliquer pour la location, ma blonde a dit : “Es-tu sûr ?” J’ai effectué mes recherches, et c’était une fausse annonce. L’appartement existait, mais il n’était pas à louer. Le gars avec qui j’échangeais n’était pas le propriétaire. J’étais à deux doigts de me faire avoir. »
M. Laurier croit qu’on s’apprête à vivre un « âge d’or de la fraude » propulsée par l’IA.
« Les gens vont se faire embobiner par des conversations avec une personne, qui est en fait l’IA. Un bandit, il est mort de rire, il peut corriger le tir constamment. »
Le crime organisé va chercher les bons programmeurs, les bonnes personnes. Ce n’est que du code, et de la puissance de calcul. Les bandits revendent les modèles sur le dark web. Ça donne le vertige. On n’est pas prêt. L’État n’est pas prêt.
Paul Laurier, ex-enquêteur de la Sûreté du Québec spécialisé dans les crimes financiers
Steve Waterhouse a lui aussi été victime d’une fraude récemment. Après avoir effectué une recherche pour un voyage sur le site Booking.com, il a vu apparaître une transaction pour un montant de 352,40 $ au nom du site d’hébergement sur son relevé de carte de crédit.
« J’ai tout simplement effectué une recherche. Je n’ai jamais entré mes informations de carte de crédit. Quelqu’un s’est approprié mon numéro de carte. Je ne sais pas où ni comment ils l’ont trouvé. »
À l’heure actuelle, les gens sont trop souvent laissés à eux-mêmes, dit-il.
« Le fardeau de la preuve repose sur les épaules des clients. Les banques, elles font de la sensibilisation passive, mais pas active. Elles diffusent de l’information sur leur site. Il n’y a rien dans les écoles, par exemple. Ça serait positif d’en parler dans les écoles secondaires, les cégeps, les universités. Sans formation, on s’assure de subir de la fraude pendant des années encore. »
« Même les personnes averties peuvent se faire berner »
Résumé
L’intelligence artificielle personnalise l’hameçonnage et la fraude à un point tel qu’il est parfois impossible de distinguer le faux du vrai, signale Preet Banerjee, consultant auprès du secteur de la gestion de patrimoine. La Presse lui a parlé.
Comment les courriels d’hameçonnage générés par l’IA se comparent-ils aux courriels d’hameçonnage traditionnels en matière de tactiques de manipulation psychologique ?
Les courriels d’hameçonnage générés par l’IA portent la manipulation psychologique à un niveau supérieur. L’hameçonnage traditionnel s’appuie souvent sur des messages génériques, des demandes générales ou des imitations de marques connues. Grâce à l’IA, les escrocs peuvent hyperpersonnaliser les messages en utilisant des données extraites des médias sociaux, des archives publiques ou même de communications antérieures. Le contenu peut être finement adapté aux champs d’intérêt, aux habitudes ou aux évènements de la vie courante du destinataire, et ainsi être beaucoup plus convaincant.
Par exemple, si vous publiez sur LinkedIn des informations sur un nouvel emploi que vous venez de décrocher, l’IA peut être utilisée pour récupérer ces informations et vous envoyer un courriel qui vient prétendument d’un responsable de votre équipe vous demandant d’entrer des données sensibles dans un « portail d’employés ». En substance, si les tactiques sous-jacentes d’urgence ou de peur demeurent, la personnalisation permise par l’IA peut rendre indétectables ces attaques d’hameçonnage hyperpersonnalisées. Même les personnes averties en matière de technologie peuvent se faire berner.
Quel est le rôle des grandes organisations et des institutions financières dans la lutte contre les attaques d’hameçonnage renforcées par l’IA ? S’adaptent-elles assez rapidement ?
Elles sont des actrices clés dans la lutte contre l’hameçonnage amélioré par l’IA. Beaucoup ont commencé à investir dans des outils de cybersécurité avancés qui intègrent l’apprentissage automatique et le renseignement sur les menaces pour détecter les comportements suspects. Mais les techniques évoluent rapidement, et même ces institutions ont parfois du mal à suivre le rythme des dernières escroqueries. En réalité, bien des utilisateurs ont donc l’impression d’être livrés à eux-mêmes.
Avec les progrès rapides de l’IA, voyez-vous un avenir où les systèmes de détection automatisés pourront neutraliser efficacement les tentatives d’hameçonnage avant qu’elles n’atteignent les utilisateurs ?
Je pense que les systèmes de détection automatique sont prometteurs, car la technologie de l’IA continue de progresser. Des modèles d’apprentissage automatique sont déjà utilisés pour identifier des modèles anormaux et signaler des tentatives d’hameçonnage potentiel avant qu’elles n’atteignent les utilisateurs. Dans un scénario idéal, une défense en couches combinant des systèmes automatisés et une surveillance humaine pourrait neutraliser de nombreuses tentatives d’hameçonnage en temps réel.
Toutefois, il ne s’agit pas d’une solution miracle. Les hameçonneurs continueront à faire évoluer leurs tactiques. Il s’agira probablement d’une course aux armements permanente entre les fraudeurs et ceux qui cherchent à les contrer. On ne pourra jamais compter uniquement sur l’automatisation sans une formation complémentaire des utilisateurs.
Pour ne pas tomber dans le piège d’un hypertrucage
Créez un mot ou une phrase secrète avec votre famille pour vérifier leur identité.
Recherchez des imperfections subtiles dans les images et les vidéos, telles que des mains ou des pieds déformés, des dents ou des yeux irréalistes, des visages indistincts ou irréguliers.
Écoutez attentivement le ton et le choix des mots pour faire la distinction entre un appel téléphonique légitime d’un être cher et un clonage vocal généré par l’IA.
Si possible, limitez le contenu en ligne de votre image ou de votre voix, rendez vos comptes de réseaux sociaux privés, et limitez vos abonnés aux personnes que vous connaissez afin de minimiser la capacité des fraudeurs à utiliser des logiciels d’IA générative pour créer des identités frauduleuses.
Ne partagez jamais d’informations sensibles avec des personnes que vous avez rencontrées uniquement en ligne ou par téléphone.
N’envoyez pas d’argent, de cartes-cadeaux, de cryptomonnaie ou d’autres actifs à des personnes que vous ne connaissez pas ou que vous avez rencontrées uniquement en ligne ou par téléphone.
Si une banque ou une organisation vous appelle, vérifiez l’identité de la personne, puis raccrochez. Ensuite, recherchez le contact de la banque ou de l’organisation qui prétend vous appeler et appelez directement au numéro de téléphone officiel.