Monde Numérique :
[0:10] Des milliards qui coulent à flot, des annonces, un peu de réglementation, mais pas trop. Le sommet pour l’action sur l’intelligence artificielle avait lieu cette semaine à Paris. L’essentiel de cette édition y est consacré. Pour commencer, dans l’actu de la semaine, on va revenir sur les principales annonces du sommet. On évoquera aussi les dernières lubies d’Elon Musk qui s’en prend à OpenAI. OpenAI justement qui annonce la prochaine version de ChatGPT, en tout cas GPT-5. ça y est, il serait dans les tuyaux, il arrive. Enfin, Apple dans le collimateur d’associations pour atteinte à la vie privée, Siri aurait-il de trop grandes oreilles ? Le débrief transatlantique, ce sera l’occasion de prendre un peu de recul sur le fameux sommet avec mon camarade Bruno Guglielminetti. Et puis dans cette émission, plusieurs interviews de personnalités réalisées à l’occasion du sommet de l’IA pour explorer différents aspects de l’intelligence artificielle. On écoutera, tenez-vous bien, le fondateur du chatbot Perplexity, le cofondateur de Google DeepMind, le prix Nobel d’Emissa Savice, Xavier Niel qui passait par là, la chercheuse Laurence De Villers et une autre spécialiste de l’IA, Leila Merck, à propos d’une intelligence artificielle au service de l’information.
Monde Numérique :
[1:38] Bienvenue à l’écoute de Monde Numérique, l’hebdo, le meilleur de la tech, chaque samedi sur toutes les plateformes de podcast. C’est l’épisode du 15 février 2025.
Monde Numérique :
[1:57] Oh là là là là, programme chargé cette semaine dans le monde numérique, l’hebdo. Il va falloir accélérer la cadence si on veut tout caser. Mais ça ne m’empêchera pas quand même de faire un petit coucou à vous, auditeurs fidèles, notamment ceux qui m’ont envoyé des messages. Michel, Jeff, qui me fait plein de propositions d’évolution pour ce podcast, des idées intéressantes. Mickaël également et Deméus, qui lui trouve que je suis un peu trop dur avec la réglementation européenne. On verra. et remerciements tout particuliers cette semaine à Jean-Michel, Julien et Jérôme pour leurs dons, car vous le savez ou vous ne le savez pas, mais vous pouvez soutenir financièrement, si vous le souhaitez, ce podcast Monde Numérique, qui en est à sa cinquième saison. Il suffit pour cela de cliquer sur le lien en description ou d’aller sur le site mondenumérique.info. Merci à vous, généreux donateurs.
Monde Numérique :
[2:51] Nous allons donc revenir sur ce fameux sommet pour l’action sur l’IA qui s’est tenu à Paris cette semaine. J’y étais et je vais tout vous raconter.
Monde Numérique :
[3:01] Mais avant de se poser la question de savoir si c’était un succès ou un échec, ça on en parle tout à l’heure avec Bruno Guilleminetti, un petit tour rapide tout d’abord sur ce qu’il en ressort concrètement. Alors des annonces, des annonces d’investissement, 109 milliards en France pour la construction de data centers, de l’argent exclusivement privé qui sera apporté par différents investisseurs. La promesse de former 100 000 data scientists par an, 200 milliards au niveau européen. Et puis sur le plan politique, la signature d’une déclaration internationale pour une IA ouverte, inclusive et éthique, appelant à éviter une concentration excessive du marché. Une déclaration signée par 58 pays, dont la France, l’Inde et la Chine, mais… Pas par les Etats-Unis ni la Grande-Bretagne. Le vice-président américain J.D. Vance, qui était présent à Paris, a en effet mis en garde contre une régulation excessive qui pourrait, a-t-il dit, tuer une industrie en plein essor. Et il s’est déclaré opposé par ailleurs à des partenariats avec des régimes qualifiés d’autoritaires, sous-entendu la Chine qui était présente également à l’occasion de ce sommet, qu’il n’a pas nommé directement, mais à noter pour la petite histoire que J.D. Vance a refusé d’écouter le discours du porte-parole chinois lors du dîner officiel à l’Elysée.
Monde Numérique :
[4:12] En ce qui concerne la réglementation sur l’IA précisément, le signal envoyé à l’occasion de ce sommet est plutôt celui d’un certain assouplissement, avec notamment une simplification à annoncer des lois sur le numérique, une réduction des formalités administratives, mais toutefois les préoccupations éthiques notamment restent d’actualité, pour éviter les dérives de l’IA.
Monde Numérique :
[4:33] Et notamment avec Current AI, une initiative destinée à soutenir le développement d’une intelligence artificielle d’intérêt public et sociétal, une initiative qui sera dotée d’un fonds initial de 400 millions de dollars et avec des partenariats entre plusieurs pays, dont la France, l’Allemagne, le Chili, le Kenya, le Maroc, le Nigeria, etc. Puis des entreprises technologiques également comme Google ou Salesforce. Voilà, pour l’essentiel, si vous voulez plus de détails, je vous propose un épisode spécial de Monde Numérique en date du 13 février avec un éclairage plus précis encore sur ce sommet. Et puis, comme je l’ai dit, on y revient dans un instant dans le débrief transatlantique.
Monde Numérique :
[5:12] Alors que se tenait à Paris le sommet sur l’IA, de l’autre côté de l’Atlantique, un certain Elon Musk n’a pas pu se retenir de faire parler de lui. Le patron de SpaceX Tesla n’était pas présent en France, mais il a quand même tout fait pour occuper le terrain et le devant de la scène avec une annonce choc, puisqu’il a annoncé qu’il avait l’intention de racheter OpenAI, la firme de Chagipiti, pour un montant de près de 100 milliards de dollars.
Monde Numérique :
[5:40] Annonce choc, je l’ai dit, qui a obligé Sam Altman, le patron d’OpenAI, qui lui était présent en France, à répondre immédiatement sur X, en sortant plutôt la carte humoristique, puisque Sam Altman a déclaré qu’OpenAI n’était pas à vendre, mais qu’en revanche, il voulait bien lui racheter le réseau social X pour un dixième de sa valeur. Alors, qu’est-ce qu’il faut retenir de tout ça, en réalité ? Eh bien, derrière ça, c’est toujours, un, la guerre et la guéguerre des égaux entre Elon Musk et Sam Altman. Et cela ressemble surtout à une manip financière de la part d’Elon Musk, car on le sait, OpenAI pour l’instant est une organisation non commerciale qui en réalité ne peut pas être rachetée. Donc c’était un coup de bluff, mais on sait également que Sam Altman a l’intention de faire évoluer le statut de son organisation pour en faire une véritable entreprise à but lucratif. L’annonce de Musk de vouloir racheter tout ça pour 100 millions de dollars pourrait donc avoir pour effet de valoriser virtuellement la future entreprise à un niveau extrêmement élevé, ce qui compliquerait les affaires de Sam Altman. Bref, c’était en réalité une vraie peau de banane dans le cadre d’un combat de coques, des coques géants certes, mais un combat de coques qui n’a plus grand chose à voir, il faut bien le dire, avec la technologie elle-même.
Monde Numérique :
[6:54] OpenAI, justement, est dans l’actualité cette semaine également avec une annonce du même Sam Altman, le PDG, une annonce qui n’est pas passée inaperçue. Et là, c’est beaucoup plus tech puisque Sam Altman annonce l’arrivée prochaine du fameux GPT-5, GPT-5, la future version du modèle de langage GPT. Alors, GPT-5, c’est un truc qui fait fantasmer l’écosystème de l’IA depuis plus d’un an maintenant. C’est la promesse d’une intelligence artificielle générative encore plus puissante que les modèles actuels. GPT-5 pourrait avoir plus de 1,5 trillion de paramètres, ce qui améliorerait de manière significative sa capacité de raisonnement. Dans la pratique, il pourrait donc faire plus de choses. Il aurait moins d’hallucinations, c’est-à-dire moins de réponses inexactes, une meilleure compréhension du contexte également et une meilleure personnalisation. Ça devrait arriver, a dit Sam Altman, dans les prochains mois. Avec ça, il ne se mouille pas beaucoup parce que ça fait un moment qu’il en parle sans en parler. Et en tout cas, ce GPT-5 devrait remplacer tous les autres modèles de la gamme GPT, parce qu’aujourd’hui, ça devient un peu compliqué. Il y a toute une gamme, on se croirait, un peu dans un supermarché de l’intelligence artificielle. Et en attendant GPT-5, on devrait voir apparaître tout d’abord GPT-4.5, également appelé projet Orion, qui sera le dernier LLM classique d’OpenAI, c’est-à-dire sans véritable capacité de raisonnement.
Monde Numérique :
[8:20] Dans un tout autre domaine, une actu qui n’a rien à voir avec l’intelligence artificielle, pour une fois, c’est cette action en justice en France contre la marque Apple. Une action qui émane de l’association Ligue des droits de l’homme, qui a déposé une plainte contre X et adressé un signalement au parquet de Paris. Motif, l’assistant vocal Siri d’Apple aurait de trop grandes oreilles et il aurait violé la vie privée de ses utilisateurs. Alors à l’origine de ces révélations, il y a un Français, C’est un ancien employé d’une société sous-traitante d’Apple, Thomas Le Bonnier, qui affirme que lui et d’autres techniciens ont eu accès à des informations privées, voire carrément intimes. On parle de discussions d’argent, des discussions sur des sujets de santé ou même des enregistrements, débats amoureux et aussi beaucoup d’enregistrements d’enfants via des iPads, selon ce technicien. En réalité, l’affaire n’est pas nouvelle. Elle remonte à maintenant plusieurs années.
Monde Numérique :
[9:14] Thomas Le Boniac avait déjà fait des déclarations en ce sens. C’était avant également qu’Apple, comme d’autres, Google ou Amazon, ne mette en place des règles plus strictes de confidentialité. On sait que ces écoutes par des humains existent ou ont existé, en tout cas sous cette forme, dans le but d’améliorer les systèmes de reconnaissance vocale qui, au début, n’étaient carrément pas très bons. Alors, d’où viennent ces enregistrements ? il faut quand même rappeler un peu comment ça marche. Donc, l’assistant vocal Siri ou Google ou Amazon, etc., se déclenche avec le mot-clé, en l’occurrence d’e-Siri ou Siri, et c’est à ce moment-là qu’il va enregistrer la requête et l’envoyer sur des serveurs pour être traité, etc. Et le souci, c’est que parfois, en tout cas à un certain moment, il se déclenchait souvent accidentellement quand on prononçait des mots ressemblants, ce qu’on appelle des faux positifs. Du coup, ça aurait pu contribuer à révéler des informations privées. En plus de ça, le jeune homme et les associations qu’ils soutiennent dans cette action judiciaire laissent entendre que ces écoutes pourraient avoir servi à des fins marketing pour adresser des publicités ciblées ? Une plainte a donc été déposée. On verra si la justice décide d’aller plus loin, de lancer des investigations.
Monde Numérique :
[10:22] En tout cas, voilà de quoi relancer la rumeur sur les écoutes passives des appareils connectés. Rappelons qu’on n’a jamais prouvé jusqu’à présent que cela pouvait exister, que ce soit même techniquement possible, car comme le rappelle notamment Luc Julia, co-inventeur de Siri, si on voulait écouter toutes les conversations et transférer tout ça sur des data centers, ce serait des quantités astronomiques de données, juste pour envoyer de la pub, ça paraît absolument impossible. Et les chercheurs qui ont essayé de voir si ça se faisait ne se sont arrivés à aucune conclusion probante. Donc, quelle est la responsabilité d’Apple dans cette histoire, à la fois sur l’aspect marketing et aussi tout simplement sur l’aspect vie privée ? Eh bien, on verra si la justice décide de creuser le sujet ou pas. Tiens, à propos d’Apple, justement, encore autre chose, une annonce à prévoir pour la semaine prochaine. C’est le PDG, Tim Cook, qui a posté un message sur X en annonçant pour le 19 février prochain un nouveau venu dans la famille, dit-il. Alors, de quoi s’agit-il ? Eh bien, selon les exégètes d’Apple, il pourrait tout simplement s’agir du nouvel iPhone, l’iPhone SE4, le smartphone que l’on qualifie du moins cher de la gamme, le moins cher que les autres iPhones. Réponse donc mercredi prochain, 19 février.
Monde Numérique :
[11:35] Encore un mot pour un anniversaire. C’est l’anniversaire de YouTube, la plateforme vidéo qui fête ses 20 ans. Et oui, YouTube a vu le jour le 14 février 2005, créé par trois anciens employés de PayPal. La première vidéo sur YouTube a été postée le 23 avril 2005. C’était un jeune homme en train de se filmer devant des éléphants dans un zoo aux Etats-Unis. D’ailleurs, elle est toujours en ligne, cette vidéo. Vous pouvez la trouver. En 2006, YouTube est racheté par Google pour 1,65 milliard de dollars. Et aujourd’hui, c’est une énorme machine qui permet toujours aux particuliers de poster leurs vidéos de vacances ou autres, mais qui a surtout donné naissance à un gigantesque marché de production audiovisuelle totalement nouveau, qui s’est en plus énormément professionnalisé au fil des années. YouTube, c’est plus d’un milliard d’heures de contenu visionné chaque jour. YouTube se regarde sur smartphone, mais surtout de plus en plus à la télé. Et aux États-Unis, la télévision est même devenue l’équipement numéro un pour regarder YouTube. En France, on suit la même voix avec 15 millions de personnes qui regardent quotidiennement YouTube sur leur téléviseur. Enfin, YouTube, c’est aussi de l’audio, il faut le rappeler, puisque vous pouvez écouter ce podcast, tous les épisodes de Monde Numérique, sur YouTube et sur YouTube Musique, qui est l’application mobile permettant d’écouter de la musique et des podcasts.
Monde Numérique :
[12:57] Avant de passer à la suite de Monde Numérique, un mot du partenaire de cet épisode, il s’agit de Froganz. Froganz est un projet technologique innovant, un nouveau moyen d’expression sur Internet, simple et hyper puissant. Imaginez des mini-sites très graphiques qui fonctionnent partout, sur ordinateur, sur smartphone, tablette, ou même dans un casque de réalité virtuelle, sans passer par un navigateur classique. Mais ce qui rend Froganz vraiment unique, c’est son concept basé sur un tout nouveau protocole différent du web, conçu pour être léger, sécurisé, centré sur l’utilisateur, Froganz ouvre la voie à des usages totalement inédits. Froganz est un projet français conçu par une équipe d’ingénieurs passionnés. Il devrait séduire les développeurs grâce à sa simplicité, sa flexibilité et ses possibilités infinies. Froganz soutient Monde Numérique et je vous tiens au courant semaine après semaine de l’évolution du projet. Pour en savoir plus, retrouvez l’interview du fondateur Alexis Tamas en audio sur le fil du podcast Monde Numérique ou en vidéo sur la chaîne YouTube ou sur le site mondenumérique.info et rendez-vous sur le site f2r2.fr.
Guest:
[14:07] Le débrief transatlantique. Jérôme Colombin à Paris, bonjour.
Monde Numérique :
[14:11] Bruno Gugliel-Minetti à Montréal, salut.
Guest:
[14:13] Tu t’es baladé cette semaine un peu partout à travers Paris pour couvrir le sommet de l’IA?
Monde Numérique :
[14:18] Le fameux sommet pour l’action sur l’intelligence artificielle et qu’effectivement, j’ai eu la chance de suivre d’assez près. Je veux que je te raconte?
Guest:
[14:28] Oui, mais avant, je veux que tu t’autoscoopes. C’est une réussite ou pas?
Monde Numérique :
[14:34] Ça, c’est la question à 1 000 euros.
Guest:
[14:37] J’ai les moyens, alors je ne sais pas.
Monde Numérique :
[14:39] Je dirais que c’est quelque chose qui compte et qui pourrait compter pour le futur. Oui, enfin bon, on ne sait pas non plus. C’est important que ça ait eu lieu. Ça s’est plutôt bien passé et il en ressort quelques petites choses intéressantes.
Guest:
[14:53] Qu’est-ce que tu retiens de ces choses intéressantes-là?
Monde Numérique :
[14:56] Je retiens, pour moi, ça a été un peu l’occasion, comme c’était très international, avec l’Inde qui était co-organisatrice, les États-Unis qui étaient là, la Chine qui était là, ce qui d’ailleurs a posé quelques problèmes. Il y avait des tensions un peu diplomatiques. Et puis même d’autres pays de ce qu’on appelle le sud global, il y avait des pays africains, etc. Du coup…
Guest:
[15:20] On ne peut pas mentionner le Canada, mais on était là.
Monde Numérique :
[15:22] Et absolument, bien sûr, le Canada qui a été cité plusieurs fois, pardon.
Guest:
[15:26] Oui.
Monde Numérique :
[15:26] En effet.
Guest:
[15:27] Plus qu’apparemment. Ils ont été cités plusieurs fois.
Monde Numérique :
[15:30] Oui, oui, oui. Non, le Canada est en première ligne. Le Canada qui va investir en Europe et en France.
Guest:
[15:34] Ah oui, une fortune. Ben oui.
Monde Numérique :
[15:36] Ben oui, exactement. 50 milliards, c’est ça. 20 milliards, je ne sais plus.
Guest:
[15:41] Oui, c’est ça.
Monde Numérique :
[15:42] C’est 20 milliards. Oui, c’est assez énorme. L’intérêt, c’était qu’un petit peu, on met tout sur la table, que tous ces pays se parlent et échangent un peu leur point de vue, leur vision de l’intelligence artificielle et qu’on sache un peu dans quelle direction on peut aller. Alors, ça ne veut pas dire que tout le monde des d’accords, et on s’aperçoit qu’il y a quand même des lignes de fracture, tu as quand même, toujours sans surprise, les Etats-Unis, qui par exemple n’ont pas voulu signer l’accord, il y a eu une déclaration pour, je cite, une IA ouverte, inclusive et éthique, presque tous les pays ont signé, dont la France, l’Inde et la Chine, mais pas les Etats-Unis, pas la Grande-Bretagne, pourquoi ? Parce que les Etats-Unis trouvent qu’il y a trop de régulations en Europe, notamment donc ils ne veulent pas s’associer à ça, la Grande-Bretagne fait pareil, Et puis, encore une fois, il y avait la présence des Chinois qui vraiment gênait les Américains, on le voit bien. Et c’est sans doute pour ça d’ailleurs que d’autres responsables américains ne sont pas venus. Mais voilà, et après, il y a eu des choses concrètes. En tout cas, on espère qu’elles se concrétiseront puisqu’il y a eu pas mal d’annonces. 109 milliards pour construire des data centers en France, 200 milliards au niveau européen pour développer des projets autour de l’IA. Voilà, c’est malgré tout du concret, ou en tout cas des promesses de choses concrètes.
Guest:
[17:03] Ça, c’est ce qui se passait et ce qui a été annoncé dans le Grand Palais. Mais il y avait aussi cette journée un peu magique qui était toujours dans le cadre du sommet, mais qui s’est passée à la station F. J’avais l’impression de revivre la belle époque du début de la French Tech avec les images que je voyais.
Monde Numérique :
[17:19] Oui, c’est exactement ça. Et là, en plus, ce qui est drôle, c’est qu’il y a vraiment un contraste, en fait. Le Grand Palais, c’était très institutionnel et c’était très fermé. Et ce qui, d’ailleurs, était un problème, parce qu’il n’y avait pas beaucoup de monde. Alors, ce n’était pas un problème quand on y était, parce que c’était même très agréable. Contrairement à un salon où il y a trop de monde. Et bien là, c’était formidable parce qu’on ne se bousculait pas.
Guest:
[17:41] Pas de la place.
Monde Numérique :
[17:42] Et puis, on voyait très facilement les gens et on tombait par hasard comme ça.
Guest:
[17:48] Il y a bien un accès assez facile.
Monde Numérique :
[17:50] Oui, exactement. On tombait facilement sur des gens importants. Tu vois, j’ai croisé Xavier Niel en descendant un escalier. On a fait un bout d’interview. J’ai croisé deux, trois pointures de l’intelligence artificielle que d’ailleurs j’ai interviewé pour mon podcast. Voilà. Donc ça, c’était bien. Mais le problème de ça… Là, je te parle du Grand Palais toujours. Après, je te parlerai de Station F. Le problème de ça, c’est que… Et puis, c’était sous très haute surveillance policière parce qu’il y avait des chefs d’État. Il y a Emmanuel Macron qui est venu faire un discours, etc. Il y avait le vice-président américain, il y avait le premier ministre indien.
Monde Numérique :
[18:25] Et à la fois pour des raisons de sécurité peut-être, mais ça donnait un petit côté entre soi. Et ce n’était pas une très bonne image, je trouve, pour l’intelligence artificielle. Ça manquait un peu d’ouverture vers les vrais gens, en fait. Il aurait fallu quand même que les gens puissent accéder au moins à un espace d’exposition, quelque chose comme ça. Et puis à l’inverse, Station F, c’était le lendemain, on n’était plus vraiment dans le sommet, c’était un peu la suite, c’était les prolongements pour parler business, c’était donc une journée spéciale business, et alors là c’était l’inverse, c’est-à-dire que c’était la couille, on s’est marché dessus, on mettait deux heures pour entrer, les pauvres étaient complètement débordés par l’afflux de monde, c’était monstrueux, et sans surprise, il était plus difficile de parler aux gens, enfin, paradoxalement, parce qu’on ne savait plus trop qui était qui et il y avait vraiment trop de monde. Et là, c’était très plus commercial, c’était des startups qui se montraient, etc. Où il n’y a pas vraiment eu d’annonce, mais c’était important au niveau business et il y a sans doute peut-être des contacts importants qui se sont faits entre tous ces gens-là, en fait.
Guest:
[19:33] Jérôme, si tu regardes, le lendemain par la suite, il y a eu aussi des discussions plus scientifiques par des gens qui ont vraiment les mains dans le cambouis. Mais quand tu prends un recul par rapport à cette semaine-là, est-ce que tu dirais que, puis tu le disais, la réussite est teintée, l’accord n’a pas été signé par tout le monde, mais somme toute, est-ce que c’était une opération qui en valait la peine?
Monde Numérique :
[19:58] Oui, encore une fois, je pense que oui. Pourquoi ? Parce que, bon, l’accord, c’est un accord de principe. Les investissements, pour l’instant, ce ne sont que des annonces. Mais il y a eu un énorme effet positif, je trouve, à ce sommet. C’est qu’on a parlé d’IA et que d’IA et sur toutes les antennes, sur tous les médias, pendant quasiment une semaine en France. Alors ça, il y a beaucoup de gens que ça a dû énerver. Parce que les gens ont leur vie quotidienne et ils se disent « Mais l’IA, moi, je n’en ai rien à faire. je veux dire, c’est le cadet de mes soucis, etc. Mais c’est faux, c’est faux. L’IA, c’est super important. Alors, ça passe peut-être au-dessus de la tête de beaucoup de gens, mais c’était hyper bien parce que sur toutes les chaînes de télé, sur toutes les radios, tu avais de tout, des discussions un peu éthiques sur l’éthique, sur les problèmes que ça peut poser. Mais il y avait aussi des reportages sur à quoi sert l’IA, comment est-ce qu’elle est utilisée pour aujourd’hui trouver plus facilement du travail, pour produire des contenus, etc. Donc c’était toutes les facettes de l’intelligence artificielle et il y a eu un énorme battage médiatique et je crois que c’est ça le principal bénéfice de ce sommet, en fait.
Guest:
[21:06] Et donc, l’IA sans sort gagnant.
Monde Numérique :
[21:09] L’IA sans sort gagnant, oui, parce que du coup, ça infuse un peu dans les esprits, si tu veux. Eh bien voilà, ça montre qu’il se passe des choses, il y a une grande cause. Tout le monde ne perçoit pas forcément les avantages, les inconvénients. Au contraire, ce qui revient très souvent, alors ça, c’est ce que je regrette, c’est que les médias ont beaucoup mis en avant les problèmes de l’intelligence artificielle, même pas les problèmes, les risques. Dès qu’il y avait une interview le président de la république l’interview d’Emmanuel Macron à la veille de l’ouverture, troisième question c’était allez paf bon alors tout le monde va perdre son emploi, on va plus du tout travailler pareil, il y a des métiers qui vont disparaître, mais oui il y a des choses qui sont vraies mais c’est très anxiogène tout ça et je trouve qu’on, par certains moments on parlait pas assez des bénéfices de l’intelligence artificielle.
Guest:
[22:04] Dans ce temps-là, il faut le rappeler que ça a été la même chose quand l’Internet est arrivé, quand l’informatique est arrivé, quand la voiture est arrivée, quand l’électricité est arrivée. La lumeur de réverbère, il a perdu son boulot. Bon, en tout cas. Bref, c’est l’évolution de la technologie.
Monde Numérique :
[22:19] Mon cher Bruno, et toi, de ton côté, quand même, la vie continue. Tu as suivi l’actu de près. Qu’est-ce que tu as retenu cette semaine?
Guest:
[22:26] Écoute, plusieurs sujets, mais j’avoue qu’il y en a un qui t’a intéressé, je pense. et cette nouvelle recherche qui a été faite au sujet de ChatGPT. Et c’est vraiment surprenant parce que personne n’avait ces données-là. Et là, il y a Epoch AI qui est une boîte à but non lucratif qui s’intéresse à l’évaluation, à l’analyse des performances des IA sous tous les angles. Et eux sont arrivés avec une recherche plutôt surprenante qu’ils ont publiée cette semaine en marge du sommet. Et ça nous apprend que.
Guest:
[22:57] Et ChatGPT, pour une requête simple, pas un document répété ou une grande analyse, et pour une requête simple à ChatGPT, ça consomme dix fois moins que ce qu’on disait auparavant. Donc, bref, c’est l’équivalent d’une requête qui est faite sur Google. C’est une bonne nouvelle. Et d’autant plus que c’est une bonne nouvelle parce que, puis ça, on l’a souvent abordé, Jérôme, toi et moi, c’est le fait que, puisque l’intelligence artificielle est devenue partout et que de plus en plus de gens l’utilisent, de savoir que finalement, ça utilise moins d’énergie, sachant que tous ces parcs de données sont en train d’apparaître dans notre décor, on voit qu’il y a une importance qui est accordée à l’efficacité énergétique de ces systèmes-là. Et donc, c’est une bonne nouvelle et si ça vous intéresse… J’ai publié sur moncarnet.com un article complet avec un lien vers l’étude, évidemment, parce qu’il y a des gens qui veulent aller plus loin. Alors, ça ressemble à ça. Ça, ça fait partie de mon actualité. Sinon, pour faire un clin d’œil au sommet aussi, moi de Montréal, et je remercie d’ailleurs les organisateurs, il y a toutes les grandes plénières de la première journée qui étaient des discussions par rapport à l’IA dans le travail, l’IA responsable, tout ça, qui étaient diffusées sur Internet. Et donc, je me suis tapé quatre pannels d’environ 50 minutes. Mais c’était vraiment intéressant avec des intervenants.
Monde Numérique :
[24:17] Parce que moi, je n’ai pas eu le temps de suivre, en fait.
Guest:
[24:21] Parce que normalement, on n’a jamais le temps de faire quand on trouve ce genre de truc-là. Alors moi, tranquille, dans mon bureau, je suivais ça. Et j’ai fait quatre articles sur le sujet. Alors, si ça vous intéresse d’aller voir le résumé de qui dit quoi dans ce contexte-là. Et ça attire de tous les côtés. Mais c’est intéressant parce que c’est des réflexions sur différentes questions qui sont soulevées par l’IA.
Monde Numérique :
[24:40] Et Dieu sait qu’il y en a de ces questions. Donc, à nous deux, on a couvert ce sommet mondial de l’IA.
Guest:
[24:48] Exactement. Toi de très près et moi de bien loin.
Monde Numérique :
[24:52] Mais c’est très compliqué.
Guest:
[24:54] Je te laisse poursuivre avec tes auditeurs cette émission un peu particulière que tu proposes. Et puis moi, je vais poursuivre avec ma couverture du sommet. On reste à Paris. Je vais aller rejoindre Delphine Sabatier, qui, elle, va me parler du contre-sommet parce que ça avait lieu. Ce qui est intéressant, c’est que, puis tu le disais, on a parlé de beaucoup de choses dans le vrai sommet.
Monde Numérique :
[25:16] Oui.
Guest:
[25:16] Sauf que la parole citoyenne, elle n’était pas là.
Monde Numérique :
[25:19] Non.
Guest:
[25:20] Toutes les grandes organes.
Monde Numérique :
[25:21] Elle était représentée, mais elle n’était pas… Oui.
Guest:
[25:23] Mais on s’entend. Mais le monsieur, madame, tout le monde, il n’était pas là. Et les associations, ils n’étaient pas vraiment là. Alors, c’est l’occasion d’entendre leur discours et leur réaction. Et ça va de, je me pose beaucoup de questions, mais moi, je suis tout à fait contre l’IA, on ferme la boîte et on s’en va.
Monde Numérique :
[25:39] Oui, j’ai vu ça.
Guest:
[25:41] Mais c’est intéressant. Ça me fait beaucoup rire. Oui, je comprends. Mais c’est intéressant d’avoir ce discours-là. C’est important de laisser de la place, parce que ça nous permet d’avancer dans la réflexion et de nous conforter, qu’on soit d’un côté ou de l’autre. Et puis, donc ça, c’est avec Delphine que j’en parle tout de suite après toi. Et puis aussi, il y a l’angle canadien, l’angle québécois. Je pense que tu n’as pas assez pesé sur le fait que Justin Trudeau était là, qu’il était dithyrambique dans toutes ses présentations, ici et là. Avec son ami Emmanuel, c’était formidable de les voir avant le sommet, puis pendant le sommet. C’était la bromance qui se poursuit. Alors, on est content de les voir. Donc, c’est ça. Alors, avec Anne-Henrienne, qui est Madame IA au niveau du gouvernement du Québec, qui, elle, était là justement pour différentes rencontres, avec notamment notre ami Joshua Benjou, qui était là aussi. Ça a fait une grosse présence québécoise, finalement, au CESC, cet événement-là. C’est que ça que je parle aussi un petit peu plus tard.
Monde Numérique :
[26:39] Écoute, super. Je renvoie mes auditeurs sur ton podcast et j’attends que les tiens viennent chez moi.
Guest:
[26:46] Ben oui, je te les retourne tout de suite après. Allez, puis je te souhaite un bon montage parce que toi, c’est pas fini.
Monde Numérique :
[26:52] Non, on n’est pas couché. Salut Bruno, à la semaine prochaine.
Monde Numérique :
[27:05] Comme promis, voici maintenant plusieurs interviews réalisées à l’occasion du Sommet pour l’action sur l’intelligence artificielle. Ces interviews sont proposées en version intégrale si vous écoutez Monde Numérique Labdo Premium sur Apple Podcasts, sinon vous trouvez-les en épisode séparé, long format la semaine prochaine sur toutes les plateformes de podcast, Xavier Niel, ce sommet de l’IA, il tombe à point nommé ou il arrive trop tard ?
Guest:
[27:36] Pour les autres, c’est la panique. Pour les autres Européens, c’est la panique. On est en train de tout tuer l’Europe en France. On est très, très bon. Donc, on va montrer au reste de l’Europe qu’on est là et on va montrer au reste du monde qu’on est là aussi. Donc, c’est important, je pense, d’afficher. C’est le deuxième. Le troisième, je crois qu’il aura lieu en Inde. J’espère que ce n’est pas un grand secret. Mais donc, je pense que c’est le début. Ce n’est pas mal que ça se passe pour deux fois de suite en Europe et qu’on soit capable de montrer à quel point on est capable en Europe de créer des choses de qualité.
Monde Numérique :
[28:04] Malgré toutes les rengaines sur le retard, la peur, on a l’impression qu’il y a énormément de peur et ça l’emporte sur la confiance dans les perspectives de l’IA.
Guest:
[28:13] Sur le retard, il n’existe pas ce retard. Je sais que ça fait partie de notre défaitisme habituel français. On avait déjà un modèle de type DeepSig. DeepSig, c’est le modèle chinois qui est à la mode du moment, mais on a eu Mistral, qui est de la même manière le meilleur modèle sur l’ordinateur qu’on a chez soi à la maison. Donc, on est là-dedans. Je pense qu’on a toujours ce côté défaitiste, mais on est plutôt en avance de phase. On est plutôt très, très bien placé en France. Ensuite, la peur, la peur pour son emploi, la peur d’une déstabilisation de la démocratie. Il y a de nombreuses peurs, mais ces peurs, dès qu’on connaît, dès qu’on sait comment ça marche, dès qu’on comprend comment ça marche, elles ont toutes les raisons de disparaître. Je pense que c’est un sujet important d’avoir une couverture médiatique significative pour ce sommet de l’IA. Pour que les gens aient envie d’essayer d’utiliser ces modèles. Avec Mistral, pour tous les abonnés FreeMobile, on leur offre une version pro de le chat. Et l’idée, c’est quoi ? C’est juste de dire, testez, essayez, allez loin, voyez ce que ça vous apporte, voyez ce que ça peut vous amener dans votre vie pour traduire quelque chose, pour corriger vos fautes d’orthographe. Utilisez l’intelligence artificielle et voyez les avantages que ça va vous apporter.
Monde Numérique :
[29:27] Ravine Srinivas, vous êtes cofondateur et CEO de Perplexity. Comment décrivez-vous Perplexity ? Est-ce vraiment différent des autres chatbots aujourd’hui ?
Guest:
[29:41] Oui, c’est assez différent parce que c’est un moteur de recherche d’IA qui vous donne des sources. Ce n’est pas seulement un chatbot qui répond à partir de ce que pense le modèle d’IA. Il s’agit en fait de faire des recherches sur le web et de ramener des informations et de dire à l’utilisateur d’où viennent les informations. C’est très important. Il expose également la chaîne de pensée brute à l’utilisateur et le mode de raisonnement. Je pense que c’est crucial pour que les gens fassent confiance à ce que l’IA dit à travers les sources et la chaîne de pensée. C’est la raison pour laquelle c’est un produit unique.
Monde Numérique :
[30:16] Oui, mais on voit qu’aujourd’hui, d’autres chatbots comme ChatGPT intègrent également les sources dans leurs réponses.
Guest:
[30:28] La différence, c’est que Perplexity est toujours fiable. Comme pour toute requête sur Perplexity, vous obtenez toujours des sources. Avec ChatGPT, vous en obtenez parfois, mais parfois vous n’en obtenez pas, ce n’est pas fiable. Perplexity vous donne, dans le mode de raisonnement, comme une chaîne de pensée brute du modèle, que ChatGPT n’expose pas. Ainsi, Perplexity garantit que pour tout ce que vous faites, vous aurez toujours de la transparence et de la confiance. Les gens peuvent toujours avoir une expérience perplexity gratuitement, à la fois pour le raisonnement et la recherche régulière. ChatGPT ne propose pas beaucoup de fonctionnalités pour les utilisateurs gratuits. Donc, tout cela doit nous permettre de garder une longueur d’avance. Et il y a beaucoup d’autres choses que nous faisons pour nous assurer que nos interfaces utilisateurs soient personnalisées pour chaque vertical, comme la finance, le sport, le shopping, les voyages et le local, et toutes ces choses que nous faisons beaucoup mieux. Et nous allons continuer à améliorer le produit. Pour la recherche, nous sommes le numéro un. Pour les utilisations génériques d’un chatbot, les gens peuvent utiliser ChatGPT pour écrire leurs emails ou toutes ces choses. Mais je pense que nous restons en avance, notamment avec nos agents et notre assistant Android, que nous avons récemment introduit, qui peut non seulement vous donner des réponses, mais aussi effectuer des tâches pour vous. Je pense que c’est une autre façon de garder une longueur d’avance sur la concurrence. Juste une autre question.
Monde Numérique :
[31:55] Comment voyez-vous le futur ? Parce qu’il y a une très grosse compétition en ce moment, il y a beaucoup d’argent. Qu’est-ce que vous imaginez ?
Guest:
[32:06] Je pense que l’avenir appartient à celui qui va innover le plus rapidement et expédier les choses efficacement sans dépenser beaucoup d’argent. Je pense qu’avec DeepSeek, ce que les gens ont vu, c’est que vous pouvez réellement faire beaucoup de travail sans dépenser beaucoup. Et je pense qu’être agnostique du modèle, pouvoir utiliser n’importe quel modèle qui est le meilleur modèle là-bas et être obsédé par l’utilisateur, va nous donner beaucoup d’avantages dans la concurrence.
Monde Numérique :
[32:32] Merci beaucoup. Le sommet de l’IA, c’était aussi l’occasion de s’interroger sur le futur de l’intelligence artificielle. Google France recevait le président et cofondateur de DeepMind, la filiale de Google dédiée à l’intelligence artificielle. Prix Nobel de chimie, initiateur d’AlphaFold, cet algorithme de modélisation des protéines, Demis Hassabis a notamment évoqué la fameuse AGI, l’intelligence artificielle générale qui sera plus forte que l’intelligence humaine.
Guest:
[33:11] Je pense que nous sommes sur la voie de l’AGI, cette sorte d’idée d’un système qui présente toutes les capacités cognitives de l’homme. Et la raison pour laquelle c’est important, c’est qu’il s’agirait d’une véritable intelligence générale. Cela a toujours été l’objectif initial de l’IA en tant que domaine, même dans les années 1950, avec des gens comme Alan Turing et certains de mes héros scientifiques de toujours. Et je pense que nous sommes sur le point de le faire. Nous ne sommes peut-être qu’à cinq ans d’un tel système, ce qui serait assez extraordinaire. Je pense que la société doit s’y préparer, que l’ensemble de la société en bénéficie. Mais nous atténuons également certains risques. Dennis, je sais que vous vous qualifiez d’optimiste prudent. Est-ce que c’est 50-50 ou bien êtes-vous plus prudent qu’optimiste ?
Guest:
[34:05] Eh bien, écoutez, je suis fondamentalement un techno-optimiste. J’ai travaillé sur l’IA tout au long de ma carrière, parce que je pense qu’elle a le potentiel d’être la technologie la plus bénéfique et la plus révolutionnaire que l’humanité inventera jamais. Cela a toujours été clair pour moi, et je pense que cela devient de plus en plus clair pour de plus en plus de personnes. Et puis la prudence vient du fait qu’avec n’importe quelle technologie massivement transformatrice et puissante, l’IA pourrait être la plus puissante. C’est aussi une technologie à double usage. Cela dépend de la façon dont nous, en tant que société, comment nous décidons de l’utiliser. Que voulons-nous faire avec cette technologie ? Voulons-nous l’utiliser pour le bien, pour la science, pour ce genre de choses, et pour la médecine, ou pour le mal ? Et je pense que c’est le défi que nous devons relever aujourd’hui. Je pense que l’autre problème est que la technologie elle-même, à mesure que nous nous rapprochons de l’AGI et de systèmes plus génétiques, comportent certains risques inhérents. Je m’inquiète donc de deux risques. Le premier est que des acteurs malveillants réaffectent des technologies d’usage général à des fins néfastes. La question est donc de savoir comment restreindre l’accès à ces technologies ou empêcher les mauvais acteurs d’agir de la sorte, qu’il s’agisse d’individus ou de nations voyous, mais tout en permettant et en facilitant l’accès aux bons cas d’utilisation.
Guest:
[35:28] C’est donc la partie la plus difficile. La deuxième partie, à mesure que nous nous rapprochons de l’AGI, est le risque inhérent au système basé sur des agents. Et je m’assure qu’ils ont les bonnes valeurs, les bons objectifs. Ils ont les bons garde-fous pour que nous comprenions ce qu’ils font. Ils sont interprétables. Autant de grands défis à relever en matière de recherche. Je fais preuve d’un optimisme prudent à cet égard, car je crois beaucoup à l’ingéniosité humaine. Je pense que si nous mettons les meilleurs cerveaux sur le cou, avec suffisamment de temps et d’attention, et c’est là l’élément clé, c’est là l’élément de prudence, alors je pense que nous y parviendrons et que nous ferons passer l’humanité par cette sorte de chat de l’aiguille. Mais ensuite, nous bénéficierons de tous les avantages qu’apportera l’intelligence artificielle.
Monde Numérique :
[36:24] En attendant, l’AGI, l’intelligence artificielle, dès aujourd’hui, c’est du concret, avec des initiatives au service de ce qu’on appelle l’inclusion. Donner accès à ces technologies au plus grand nombre, y compris en Afrique. Leroy Abigame, bonjour. Vous représentez ici au sommet de l’IA une société qui s’appelle Yodi. Qu’est-ce que vous faites exactement ?
Guest:
[36:47] Une société qui s’appelle Ubandi, mais on fait un produit qui s’appelle Yodi, qui veut dire parler en langue locale togolaise. Donc nous, ce qu’on fait, c’est des modèles de langues pour les langues africaines. Donc aujourd’hui, on fait un modèle de langue qui supporte l’Ewe et le Kabie, qui sont deux langues qui sont parlées en Afrique de l’Ouest et dans le monde par 20 millions de personnes.
Monde Numérique :
[37:06] Parce qu’aujourd’hui, Tchadjipiti, par exemple, ou d’autres, le chat, etc., ne savent pas parler dans ces langues-là ?
Guest:
[37:11] Oui, justement. Tchadjipiti ne sait pas parler dans des langues de nos pays. Mais ce qui est bien, c’est que Tchadjipiti peut répondre à certaines questions. Et puis nous, après, ce qu’on fait, c’est qu’on fait de la traduction, par exemple, dans nos langues, pour que même des gens qui ne comprennent pas le français, ni l’anglais, ni d’autres langues, en fait, ne se sentent pas délaissés et ils puissent aussi être à jour, en fait, que ce soit dans le domaine de la technologie, dans le domaine de la santé, dans le domaine de la finance, en fait, dans le domaine de l’agriculture même, en fait. L’idée, c’est que des fermiers qui sont quelque part loin, en fait, puissent avoir assez, en fait, à des informations. de la même manière que ceux qui sont allés à l’école, qui ont étudié, ont accès à l’information aussi. Voilà.
Monde Numérique :
[37:54] Est-ce que vous avez suffisamment de data ? Sur quelle base vous entraînez vos modèles ?
Guest:
[38:00] Alors, nous, on a une communauté d’environ un peu plus de 70 membres, en fait. Donc, ce qu’on fait, c’est que les membres de la communauté, en fait, contribuent sur une data interface que nous, on a créée. Donc, on a créé une data interface. Si vous allez sur contribution.ubandie.org, vous pouvez, en fait, créer un compte et vous enregistrer et puis contribuer dans votre langue. Si vous savez lire votre langue locale et vous la parler, vous pouvez contribuer. C’est-à-dire, vous lisez du texte, par exemple, et vous soumettez de l’audio. Et nous, derrière, on l’enregistre et on entraîne nos modèles.
Monde Numérique :
[38:31] Au-delà de la langue, j’imagine qu’il y a également la notion de culture qui est très importante. Parce que, par exemple, on reproche à Chajipiti d’être très américain. On sait que les données sur lesquelles les modèles sont entraînés reflètent également la culture.
Guest:
[38:46] Oui, en fait, c’est important. Nous, aujourd’hui, comme je vous le dis, on fait principalement de la traduction, mais l’idée par la suite, en fait, c’est d’avoir de la déta, en fait, qui reflète les domaines, en fait, de l’agriculture, de la santé, mais qui sont dans le contexte de nos pays. Donc, l’idée, c’est de faire des IA qui sont pointus, en fait, avec nos données à nous. On utilise le chat GPT pour répondre à des questions. Si vous voulez, je peux vous faire une démo du modèle là pour que vous voyez.
Monde Numérique :
[39:11] Allez, allons-y.
Guest:
[39:12] Alors.
Monde Numérique :
[39:12] Là, on est sur WhatsApp.
Guest:
[39:13] C’est ça ? Là, on est sur WhatsApp. Donc, nous, on a un bot WhatsApp, en fait, sur lequel vous pouvez tester notre modèle. Donc, basiquement, c’est un bot à qui vous pouvez écrire. Alors, salut ! C’est ChadJPT qui répond, là, vous allez voir. Il dit « Comment puis-je vous aider aujourd’hui ? » Donc, si vous lui posez une question, en fait, il va répondre à la question. Et vous pouvez lui demander, en fait, « Voulez-vous traduire en EOE ? » Il traduit, en fait, en texte EOE, là, vous voyez. Un peu plus haut, on avait le ministre qui est passé tout à l’heure, en fait, et on a fait une démo avec lui, en fait. On lui a posé quelques questions. il comprend l’anglais aussi. Et là, vous avez en fait les réponses traduites avec des audios sous différentes formes. Voilà.
Monde Numérique :
[40:05] Ça rentre chez GPT à International.
Guest:
[40:07] Oui, oui, oui. Super. Merci beaucoup.
Monde Numérique :
[40:14] Bonjour Laurence de Villers.
Guest:
[40:15] Bonjour Jérôme.
Monde Numérique :
[40:17] Chercheuse en intelligence artificielle, spécialiste de l’IA à Sorbonne Université. Ce n’est pas une surprise de vous retrouver ici au sommet mondial sur l’action pour l’IA. Qu’est-ce que vous en pensez de ce sommet ?
Guest:
[40:28] Écoutez, je pense que c’est une excellente initiative d’avoir une troisième voie par rapport aux Etats-Unis et à la Chine. On apprend de plus en plus en expérimentant. On commence à avoir des licornes qui sont plus que des licornes, Mistral et High ou d’autres. Il faut absolument qu’on capture des données en Europe et qu’on soit capable de construire des verticales sur plein de sujets. Et là, il y a une vraie force pour l’industrie, pour l’économie, pour la médecine, la santé, on peut trouver une innovation fulgurante. Pour l’éducation, je suis un peu plus mitigée.
Monde Numérique :
[40:59] C’est-à-dire ?
Guest:
[41:00] Eh bien, je ne pense pas que c’est avec un chat GPT qu’on va apprendre aux enfants des choses fabuleuses. Les enfants ont besoin d’ouvrir, d’augmenter leur compréhension ou d’aider leur compréhension via des outils très différents. L’école, pour moi, c’est un temps où on n’a pas du tout de machine et on fait avec la main et son cerveau. Un temps où on va chercher dans les machines quelque chose de très nouveau, et ce n’est pas forcément Tchad GPT qui enfousit tout d’idées, n’est-ce, Et en troisième, il faut apprendre surtout aussi les concepts qui sont derrière ces IA, comment elles sont faites, parler d’éthique aux enfants, d’usage. Et à la Fondation Blaise Pascal, dont je suis présidente, avec des gens très connus comme Cédric Villani, Hugo Duméni, il y a beaucoup d’informaticiens très connus, Serge Abidboul, etc. Nous avons en fait essayé de pousser des alternatives, des choses plus intéressantes pour l’école. Ce n’est pas encore le cas de notre école. Nous, par exemple, pour la primaire, on propose des capsules IA éthiques pour que les enfants apprennent les usages. Ce n’est pas la grande éthique philosophique, c’est des choses très appliquées, mais on va leur dire, par exemple, la prise de ton attention, il y a un côté dopamine dans tout ça, c’est-à-dire qu’on va chercher à te faire plaisir, à te garder le plus longtemps possible devant une plateforme. C’est pour ça que tu restes et que tu ne veux pas écouter tes parents, par exemple. Et donc, avec des petits films, pour les enfants de 8-10 ans en primaire, on pourrait préparer des cerveaux à être plus agiles et avoir plus un esprit critique et créatif. vis-à-vis de ces outils.
Monde Numérique :
[42:27] Il y a un plan qui vient d’être annoncé par Elisabeth Borne pour faire entrer l’IA à l’école. Ça va dans le bon sens ou pas ?
Guest:
[42:33] Globalement, oui, mais qu’est-ce qu’il sera fait ? J’ai entendu parler de MOOC qu’on donnerait aux enfants pour qu’ils apprennent ce que c’est que l’IA. Il me semble que ce n’est pas suffisant. C’est une intelligence collective qu’on doit apprendre ça. C’est-à-dire que nous, on a fait des capsules et éthiques avec trois minutes d’écran, si vous voulez, et une heure de discussion avec le prof qu’on acculture en même temps, sur tous ces termes, pour essayer de comprendre comment la machine capture mon attention ? Comment je vais être harcelée ? Qu’est-ce qu’un cookie ? Qu’est-ce qu’être une fille ou un garçon sur Internet ? Qu’est-ce que l’ordinateur fait mes devoirs ? Qu’est-ce qu’il fait ? Est-ce qu’il nous dit la vérité ou pas ? Qu’est-ce que je dois challenger ? Comment l’utiliser ? Des choses comme ça. Très pratique, très pragmatique. Je pense qu’on a besoin de cette vision-là pour démystifier l’IA auprès du plus grand nombre et auprès de nos enfants à l’école très jeunes.
Monde Numérique :
[43:20] Merci beaucoup Laurence de Villers.
Guest:
[43:22] Merci Jérôme.
Monde Numérique :
[43:26] Si l’intelligence artificielle offre des perspectives enthousiasmantes, elle suscite également des inquiétudes quant à ses effets négatifs et notamment sur les plus jeunes. L’organisation non gouvernementale Everyone.ai aide les responsables de la jeunesse du monde entier à y voir un peu plus clair. Mathilde Serrioli de Everyone.ai.
Guest:
[43:47] Pourquoi en fait on se pose principalement la question des enfants ? C’est que jusqu’à 25 ans, le cerveau se développe et ce qui se passe, c’est que l’environnement a une importance dans ce qu’on apprend et à quel point on apprend efficacement. Et pendant certaines périodes de développement, le cerveau apprend extrêmement vite. Et en dehors de ces périodes-là, c’est beaucoup plus difficile, le développement est moins optimal. C’est pour ça que, par exemple, quand on apprend nos langues étrangères plus tard dans la vie, on garde souvent un accent qui n’est vraiment pas très bon, alors que quelqu’un qui l’aurait appris très tôt aura un très bon accent. Parce qu’on apprend en dehors de ces zones de développement. Et c’est un petit peu là qu’est l’inquiétude. Est-ce que les utilisations de l’IA qu’on a vont être hyper stimulantes, hyper enrichissantes ? Et là, il y a un réel potentiel d’aller améliorer certaines connaissances. Par exemple, dans l’éducation, on voit énormément de choses qu’on pourrait faire avec une éducation qui, des fois, peut être aidée. Parce qu’il faut garder le prof au centre vraiment de l’éducation. Cette relation humaine, elle est essentielle. Mais on peut aller utiliser certains produits pour aller avoir une meilleure personnalisation à l’enfant, à son rythme d’apprentissage, pour aller leur fournir aussi des retours très précis sur les travaux qu’ils font, par exemple. Donc, on peut aller faciliter le travail de l’enseignant. Et de l’autre côté, il y a aussi des risques qu’on peut identifier. Et en fait, on est un petit peu à un moment, comme au moment des réseaux sociaux.
Monde Numérique :
[45:04] C’est ce que j’allais vous dire. Est-ce que ce n’est pas l’histoire qui se répète, finalement, ce qu’on a déjà connu avec les réseaux sociaux ?
Guest:
[45:09] Le but, c’est que ce soit l’histoire qui ne se répète pas, en fait. Parce que finalement, peu importe les débats autour des réseaux sociaux, quand on demande à mes collègues psychologues.
Guest:
[45:20] Neuroscientifiques, experts du développement de l’enfant, est-ce que les réseaux sociaux qu’on a actuellement, c’est les meilleurs qu’on pourrait avoir pour les enfants qui vont vraiment les aider dans leur développement ? Tout le monde est d’accord pour dire que non, on aurait fait des choix différents. On nous aurait demandé il y a 15 ans à quoi ça doit ressembler. Ce n’est pas ça qu’on aurait décidé de faire. Et donc là, en fait, on se dit, mais en fait, avec l’intelligence artificielle générative qui arrive, on est un petit peu à ce moment clé où déjà, on peut apprendre de nos erreurs. On sait que le développement et l’adoption va être extrêmement rapide. Et donc, maintenant, il faut qu’on réfléchisse aux produits qu’on veut voir arriver et qu’on demande finalement à ces experts de l’humain de travailler avec ces experts de l’IA. Et c’est vraiment ça, everyone.ai. C’est aussi la rencontre de mon expertise en neurosciences avec Grégory Renard, qui est un expert en AI depuis quelques années maintenant, et d’avoir ces conversations, que moi, je sois capable de comprendre les opportunités qu’il y a dans l’intelligence artificielle et que lui soit capable de comprendre les risques qu’il y a pour l’être humain. Parce que quand on a une technologie qui sonne au temps humain finalement, parce qu’on oublie vite quand on parle par exemple avec Chajibi.
Guest:
[46:26] D’ailleurs, je dis quand on parle, je ne dis pas quand on utilise ChatGPT, on voit bien qu’on oublie vite, qu’on n’est pas avec de l’humain. Mais quand on a une technologie qui ressemble à un être humain, c’est vraiment important qu’on comprenne l’être humain. Et être humain, ça ne nous rend pas à être expert à être humain. C’est une autre compétence qu’on a besoin de développer et que les experts en IA, en plus, ont réellement envie de développer parce qu’ils veulent que leur solution et leur innovation aident le monde plutôt que de créer des difficultés.
Monde Numérique :
[46:52] C’est quoi aujourd’hui bien utiliser ChatGPT ou autre ?
Guest:
[46:56] Alors, ça dépend à quel âge. À l’âge adulte, c’est un petit peu différent. À l’âge enfant, on peut refrendre un petit peu l’exemple de la calculatrice. Finalement, pour un enfant de 5-6 ans, utiliser une calculatrice, ce n’est pas hyper utile. S’il passe beaucoup de temps à faire ça, il ferait bien mieux d’apprendre le concept de nombre. Parce que c’est vraiment le moment où on veut qu’il se crée une idée du nombre, qu’il apprenne à calculer rapidement. Parce que le fait de calculer rapidement, ça permet d’avoir une notion des grandeurs. Par contre, quand il arrive au lycée et qu’il est capable de faire des choses beaucoup plus abstraites, Là, ça devient intéressant d’utiliser la calculatrice. C’est un petit peu la même chose avec ChatGPT. Est-ce qu’un enfant doit apprendre à 6 ans à faire faire ses textes à ChatGPT ? Non. Une fois qu’il a un très, très bon niveau d’écriture, est-ce que là, ça peut être intéressant d’aller faire challenger, par exemple, sa rédaction en disant, est-ce que mon argument est bon ? Comment je pourrais le faire mieux ? Est-ce qu’il y aurait une dynamique dans l’écriture qui serait plus intéressante ? Et donc là, pour vraiment finalement nous aider à nous améliorer un petit peu comme on le ferait avec un tuteur, avec un enseignant, là, il y a une opportunité.
Monde Numérique :
[47:54] Leïla Merck, vous présentez au sommet de l’IA un produit qui va vraiment intéresser les médias, notamment les journalistes, qui permet de surveiller en temps réel, ou presque, tout ce qui se dit sur les médias. Vous pouvez nous expliquer ça ?
Guest:
[48:08] Alors, on est tous au courant, et surtout les journalistes, que le bruit informationnel est grandissant et que ça cause un petit peu de cacophonie. Dans cette espèce de grand agglomérat de ce qui est dit à la télé et de ce qui est dit à la radio, qui sont les sources les plus difficiles à suivre parce que très vite, le son va sur du son, va sur du son, va sur du son. Nous, on a créé un outil qui fonctionne un peu comme Google sur l’Internet, mais nous, c’est un outil de recherche sur les flux TV et sur les flux radio. On écoute en temps réel 70 chaînes de télé et de radio. On identifie plus de 3000 personnalités politiques. Et le but, c’est de pouvoir tracer en temps réel… Sur quel sujet, pendant combien de temps. Ça nous crée une énorme base de données qui est nourrie en temps réel chaque jour de l’actualité. Sur cette base de données-là, on fait travailler des modèles d’intelligence artificielle qui sont en capacité de regarder qu’est-ce que le Premier ministre a dit depuis deux ans sur le nucléaire. Comment est-ce que les politiciens français ont changé d’avis sur la réforme des retraites ? Quelles sont les différences d’opinion entre le Rassemblement National et la France Insoumise sur l’immigration à partir de sources exactes ? Comment exactes ? Tout simplement parce qu’en fait, on vient chercher la source et l’extrait audio propre du moment où il en parle. On vient par-dessus ça, on en collecte une quarantaine à chaque fois, on vient générer une petite réponse qui résume les prises de parole, mais derrière, on est vraiment en capacité d’identifier ce qui a été dit et de reproduire mot pour mot ce qui a été dit.
Monde Numérique :
[49:18] Alors, par exemple, si je vous demande quelle est la position d’Emmanuel Macron sur l’intelligence artificielle ?
Guest:
[49:23] On peut tout à fait lui demander ça et il faut que j’aille récupérer ses interventions récentes. Mais par exemple, on peut dire sur France 2, il a dit le 9 février à 20h30. Voilà, et merci à tous les deux pour cette occasion de parler d’intelligence artificielle. On vit une révolution technologique et scientifique comme on en a peu connu. Et c’est donc un moment d’opportunité pour l’humanité. Donc moi, je le vis avec beaucoup d’intérêt, de volonté, etc. Et donc, en fait, on a toute sa phrase.
Monde Numérique :
[49:51] Ça, c’est le texte. Et vous avez également la vidéo ou l’audio ? On a l’audio.
Guest:
[49:54] On a un petit sujet de Wi-Fi au Grand Palais qui n’arrive pas à supporter. Tout simplement on est sur un wifi commun ouvert à tout le monde qui ne fonctionne pas forcément c’est la loi des salons exactement c’est la loi des salons mais on pourra vous l’envoyer pour l’insérer magiquement dans le podcast que j’écoute attentivement mais on pourra intégrer effectivement on peut avoir accès immédiatement à la minute exacte de ce qui a été dit on prend généralement 30 secondes avant 30 secondes après la prise de parole pour pouvoir contextualiser mais on peut comme ça regarder qu’il en a parlé à 21h18 sur france, à 20h13 sur BFM TV, à 20h14 sur TF1, à 17h49 sur LCI.
Monde Numérique :
[50:27] Qu’est-ce que ça apporte de plus qu’un outil d’indexation, d’archivage, comme il en existe aujourd’hui dans les médias ? Où est-ce qu’il y a de l’IA là-dedans ?
Guest:
[50:36] Un outil d’archivage, il va venir analyser, et c’est très utile, il va venir analyser les prises de parole passées. Nous, on est sur du temps réel. On est sur une base de données qui, à chaque fois que quelqu’un dit quelque chose, grandit. Et c’est vraiment ça qui, pour nous, est la richesse de cet outil. L’IA, elle est sur plein de couches différentes. L’IA, elle va d’abord faire de la reconnaissance faciale et vocale de qui parle. C’est un discours public, donc on est en capacité d’avoir accès à ces flux-là sans être du tout intrusif sur son identité. On va venir reconnaître qui parle, comment est-ce qu’il en parle, quelle est a priori son opinion, de quoi est-ce qu’il parle, pendant combien de temps. À chaque fois, c’est une couche d’IA qui va venir analyser un petit peu plus. Une fois qu’on a récupéré cette base de données organisée, puisqu’on sait qui parle, sur quelle chaîne, à quelle heure, de quoi, on va pouvoir mettre des modèles d’IA supplémentaires par-dessus qui vont venir comparer les prises de parole entre elles. Il suffit ensuite de demander à l’outil quelle est l’opinion du paysage politique français sur la hausse des impôts, la taxe sur les entreprises. C’est un sujet beaucoup d’actualité ces derniers temps et on est en capacité d’avoir une analyse 360 du paysage politique. Sur cette analyse 360, on peut aller rechercher des informations plus précises en disant « Non, je voudrais regarder l’opinion du Rassemblement national dessus. Non, finalement, je voudrais regarder l’opinion d’Europe Écologie Les Verts. Ah, je voudrais même que vous me fassiez un graphique qui vienne comparer les différences et placer sur une carte qui parle de quoi. » D’ailleurs, en fait, c’est tout simplement du big data qu’on fait sur de la prise de parole quotidienne. Donc, en fait, c’est du big data real time. Et c’est ça que les technologies d’archives ne permettent pas.
Monde Numérique :
[51:53] C’est un outil qui pourrait carrément révolutionner les interviews en direct, où souvent, le journaliste n’a pas le temps d’aller vérifier l’information et on laisse passer des tas de choses parfois aberrantes.
Guest:
[52:02] Ah bah complètement. Ça pourrait tout à fait dire, ah bah non, mais attendez, moi j’ai dit ça, on va vérifier deux minutes sur l’outil. Pas vraiment. C’est ça que vous avez dit, pour être tout à fait exact. Et c’est ça qu’on vous a répondu, 100%.
Monde Numérique :
[52:13] Merci beaucoup, Leila Merck. Donc, la société Magic Lamp, Et puis, ce sommet sur l’IA avait aussi une forte dimension économique. J’ai rencontré André Loscroog-Pietry de la fondation Jedi, qui œuvre et qui finance des projets de technologies avancées en Europe et qui nous livre sa vision de l’événement.
Guest:
[52:36] Moi, je ne suis d’habitude pas un grand fan de ces grands raouts, mais il faut dire qu’il y a véritablement un esprit d’optimisme positif qui, en ce moment, notamment en France, fait du bien. Maintenant, la vraie question, comme toujours, c’est les annonces, c’est bien, l’enthousiasme, c’est bien. La clé du succès aujourd’hui, c’est la mise en œuvre et la rapidité de la mise en œuvre. Je donne un exemple. Hier, j’étais avec la commissaire européenne, avec une trentaine de grands patrons à la fois d’entreprises et de startups. Là où elle aurait pu avoir un impact, ce n’est pas de dire à nouveau, comme tout le monde, il faut simplifier. Elle serait venue en disant, voilà les cinq ou six mesures que dès aujourd’hui, 10 février, je simplifie et je prends le courage de le faire. Ça, ça aurait eu un impact. Donc, il faut qu’on soit vraiment beaucoup plus dans l’action.
Monde Numérique :
[53:25] Ça veut dire quoi simplifier ? C’est un dodge à l’américaine avec de l’IA partout et une tronçonneuse et des LLM ?
Guest:
[53:33] Non, je pense en fait que c’est un vrai projet de société. Je crois qu’en fait, il faut redonner l’IA à cette capacité d’abord de faire comprendre un monde où la plupart de nos concitoyens ont en fait perdu le sentiment où est-ce qu’on va, est-ce qu’on a encore le contrôle de nos vies, quelle que soit, on va dire, l’origine, votre métier, etc. Vous sentez bien aujourd’hui que cette accélération fait qu’on ne maîtrise plus notre futur et ça je crois que ça ne parle pas, à 2% mais ça parle à 100% de la population et ça c’est la promesse de l’IA, c’est que dans ce monde complexe où on est submergé par la donnée l’information etc, ça peut donner une certaine on peut trier ce qui est important de ce qui n’est pas important, donc ça c’est quand même la promesse, maintenant ce qu’il faut c’est que tout ça s’applique sur des grands enjeux de société, on n’est pas là pour faire de la technologie pour de la technologie, c’est que c’est Est-ce que ça va nous permettre d’avoir de meilleurs médicaments ? Est-ce que ça va nous permettre de circuler mieux ? Est-ce que ça va nous permettre d’avoir une éducation de meilleure qualité pour nos enfants ? Ça, c’est des projets de société dont l’Europe, la France d’abord, mais l’Europe doit s’emparer. C’est un vrai projet où on peut revenir en tête.
Monde Numérique :
[54:39] Alors quand même, ce sommet, c’est une grosse auto-célébration où tout le monde est content, on se félicite, des talents français, des investissements. Est-ce que vous pensez que c’est un enthousiasme qui peut être partagé par le plus grand nombre ?
Guest:
[54:55] Alors je crois qu’effectivement il y a le petit risque et peut-être la petite chose qui m’a choqué c’est le côté effectivement le grand palais qui ressemblait où se passait cet événement qui était une espèce de forteresse où il y avait des forces de police alors je peux tout à fait comprendre et, Merci aux forces de sécurité pour ce qu’elles font, mais le côté, on va parler d’IA inclusive, dans une espèce de forteresse accessible à personne où toutes les rues autour étaient bouclées, évidemment, l’image n’est pas terrible.
Guest:
[55:24] Mais je veux rester sur quand même le sentiment qu’il y a quelque chose qui se passe, c’est que quand on arrive à mettre la science, le monde politique, les grandes entreprises, les associations dans une salle en se disant, juste pas se célébrer, mais se disant c’est quoi les grands enjeux de société qu’on veut régler ensemble, là en fait tout est possible. Ce que j’attendais aussi un tout petit peu, puisque tu me pousses, Jérôme, à me dire qu’est-ce qu’on aurait pu faire mieux, j’attendais un petit moment Kennedy, c’est-à-dire où le président dise qu’on a un enjeu avec l’IA, c’est l’énergie et ça touche tout le monde parce que si demain on met toute l’énergie sur les data centers et qu’on en a moins pour nos usines locales ou même pour la consommation locale, on va avoir un vrai problème politique. C’est de dire aujourd’hui, comment est-ce qu’on peut faire un grand programme de société où on va faire de l’IA, mais qui va consommer 10, 100, 1000 fois moins d’énergie ? Ça, c’est l’objectif de société et que les meilleurs talents s’épanouissent. Et ça, ça va nous toucher tout le monde. On l’a bien fait sur Notre-Dame. Essayons de le faire. C’est quelque chose qui touche toute la population.
Monde Numérique :
[56:37] Merci beaucoup.
Guest:
[56:38] Merci, Jérôme.
Monde Numérique :
[56:48] Voilà pour cet épisode de Monde Numérique, l’hebdo du 15 février 2025 et pour cette plongée au cœur du sommet pour l’action sur l’IA. Écoutez, ça arrive une fois tous les 150 ans environ, à part en France, donc ça méritait bien ça. On se retrouve bien entendu la semaine prochaine pour un nouvel épisode de l’hebdo et puis d’ici là, ne ratez pas toutes les interviews en version longue, tout au monde la semaine postée dans des épisodes spécifiques. Bref, restez à l’écoute du podcast Monde Numérique, parlez-en à vos amis abonnez-vous, abonnez-les de force envoyez-moi des messages ça fait toujours très plaisir.
Monde Numérique :
[57:24] Et puis n’oubliez pas de noter 5 petites étoiles sur Apple Podcast et puis également sur d’autres plateformes elles ne le permettent pas toutes mais c’est évidemment important pour la visibilité et le référencement de ce podcast vous pouvez soutenir Monde Numérique financièrement si vous le souhaitez en allant sur le site mondenumérique.info abonnez-vous aussi à la newsletter Voilà, j’ai fait passer tous les messages, je vous souhaite une très bonne semaine pleine de tech, salut !
© 2025 ESRIM - Tous droits réservés. Reproduction et diffusion interdites sans autorisation. Conçu par SiteVite