Actu IA #2 : Google I/O, OpenAI Codex, Devstral & l'avis de Jancovici
22 mai 2025
Dans cet épisode, nous passons en revue les actualités marquantes de l'intelligence artificielle sur les 7 derniers jours (15 mai 2025 - 22 mai 2025). Au programme : les annonces de Google dans leur évènement annuel, les agents IA pour coder et réaction au point de vue cinglant de Jean-Marc Jancovici sur l'IA générative.
Un condensé rapide et accessible pour rester à jour sur l'évolution de l'IA générative.
Une question ? Contacte-moi : guillaume.gay@protonmail.com.
Transcription
Bienvenue dans Génération IA, le podcast qui vous aide à maîtriser l'IA générative afin de simplifier votre quotidien, booster votre productivité et développer votre créativité. Ici Guillaume et bienvenue dans ce nouvel épisode des Actu IA numéro 2 dans lequel nous allons traiter les actus des sept derniers jours. J'ai fait un épisode, un Actu IA qui a bien plu et il s'est passé beaucoup beaucoup de choses cette dernière semaine. Il s'est passé beaucoup de choses dans ma vie personnelle, je ne sais pas pour vous, mais il s'est aussi passé beaucoup de choses dans le monde de l'IA Générative. Vous savez que tout avance très vite et je vous ai sélectionné quelques actualités impactantes parce que, comme je vous l'ai dit dans les actuels IA numéro 1, il y a énormément de bruit autour de l'IA Générative et il faut savoir filtrer parmi tout ce bruit les bonnes actualités impactantes. Et c'est ce que je fais pour vous dans ce podcast. Merci beaucoup d'écouter ce podcast. Si vous voulez le soutenir gratuitement en 10 secondes, vous pouvez mettre 5 étoiles sur ce podcast. Merci à ceux qui l'ont déjà fait. Ça soutient grandement le podcast. Et c'est parti pour les actualités IA. Tout d'abord, je suis obligé de parler de l'événement Google. J'en ai parlé par exemple dans les concurrents de Tchazé Pété qui est l'épisode 2 du podcast. Je vous avais dit que Google était en train de faire la remontada et qu'il fallait les surveiller de près et bien ils ont fait le réveillement annuel cette semaine. Et je peux vous dire que les nouvelles, il y en a eu énormément. Ils ont tout lâché d'un coup là. Commençons d'abord par leur modèle d'IA. leur modèle d'IA, ils ont présenté un nouveau modèle alors ils en avaient sorti un il y a une semaine et bien là ça doit être le même mais on a amélioré GEMINI 2 .5 Pro et Flash avec des nouvelles fonctionnalités de raisonnement DeepSync donc DeepSync pardon et non pas DeepSync comme le modèle chinois d'intelligence artificielle et Donc ce raisonnement qui est rapide avec également un mode agent. Un mode agent qui permet d'exécuter Gémini en arrière -plan, comme par exemple faire une réservation, une planification, etc. Et bien, vous savez, le mode DeepSync, c'est un peu le mode DeepResearch sur StitchHGPT, existé également sur Grok. C'est un mode qui va décomposer une tâche. en plusieurs soutaches, et éventuellement rechercher sur internet, développer certaines hypothèses, et ensuite faire une synthèse très précise. C'est un mat qui est exceptionnel pour faire des recherches poussées sur un sujet. Peut -être que c'est accessible que aux utilisateurs pro de TchadGPT, c'est -à -dire aux abonnés qui ont un abonnement à 20€ par mois. D'ailleurs, dans l'épisode 1, je décris l'interface de TchadGPT, mais... mais mon interface à moi c'est l'interface pro et peut -être que j'ai remarqué plus tard les utilisateurs qui ont utilisé la GPT gratuitement n'ont pas forcément toutes les mêmes fonctionnalités comme les GPT comme pouvoir changer de modèle etc parenthèse refermée mais voilà pour le mode DeepSync de Google et leur modèle Gimini 2 .5 pro et flash et bien je crois qu'il barre tous les benchmarks en termes de code, notamment. Franchement, raisonnement mathématique, codage quasi instantané. Oui, c'est un modèle ultra puissant que nous sortent Gemini et Google. Donc, petite nouvelle quand même, le meilleur modèle dial qui vient de sortir. Maintenant, vous savez que toutes les semaines, ça peut changer. Cette course à la performance des modèles est lancée. et elle n'est pas prête de s'arrêter les amis. Ils ont également lancé le projet Astra qui fournit des réponses multimodales en temps réel dans Gmini Live et Search. Donc, j'ai pas testé, honnêtement, j'ai pas testé.
Par contre, j'ai vu la vidéo de présentation de Google qui fait une démonstration de leur projet Astra. En fait, c'est... Géminy, vous avez l'interface de Géminy sur votre téléphone et vous pouvez lui parler en temps réel et vous pouvez également bah filmer je pense et dans cette vidéo il y a un jeune homme qui répare un vélo et qui pose des questions en live à Géminy et Géminy recherche sur internet, analyse des plans, lui répond directement comme vraiment un assistant sur son téléphone qui lui permet pendant que lui a les mains libres de réparer son vélo. Donc à suivre pour le projet Astra. Et puis Google, ça y est, intègre un mode IA dans ses recherches qui va faire comme Perplexity le faisait en premier, puis CHGPT avec le mode recherche, qui va synthétiser les résultats d'une requête. C'est à dire que quand vous allez taper une requête sur Google, vous allez avoir un résultat synthétisé qui va apparaître. Et ça, c'est quand même un énorme changement. Alors certes des fois, sur Google, on avait des réponses à nos questions simplement sans naviguer sur les sites web qui nous sont retournés. Et là, c'est carrément une analyse poussée qui va être faite par l'IA de cette requête Google. Avec pour conséquence, que les utilisateurs vont beaucoup moins cliquer sur les sites web. C'est énorme parce que le trafic des sites web se fait majoritairement sur Google. Donc si vous avez un résumé à votre quête sans cliquer sur les sites, eh bien vous allez avoir moins de trafic sur les sites et potentiellement moins de business pour Google parce qu'il y aura moins de publicité de sites sponsorisés si les gens ne vont pas sur les sites. L'action en bourse a d'ailleurs un peu baissé après cette annonce, parce que ça reste un mystère, leur business model est majoritairement basé sur les recherches et les publicités. Donc quand même, ça reste à surveiller. Voilà. Ensuite, Google, ils ont fait encore d'autres annonces, notamment des intégrations IA dans leurs Android Smartphones. Et puis voilà, ah oui, le mode vidéo VO3. Le mode vidéo, c'est un peu, c'est l'équivalent de Sora pour TchadGPT. Vous pouvez créer des vidéos via des promptes. Et là, ils ont fait une démonstration de leur nouveau système VO3, qui est absolument incroyable. Voilà, vous pouvez prompter pour obtenir des vidéos, vous pouvez itérer. et les résultats sont exceptionnels. Ça reste cher par contre. Par seconde de vidéo c'est genre 40 centimes et 70 centimes avec l'API. Mais Google se place en leader de la génération de vidéos par intelligence artificielle et je pense que la vidéo c'est un énorme business parce que ça peut créer des vidéos YouTube, ça peut créer des films, ça peut créer des formats short, style TikTok, Reels pour Instagram et Shorts pour YouTube. Et les vidéos, c'est très important pour la visibilité en ligne des entreprises, des marques sur les réseaux. Donc voilà, c'est un énorme business. Si demain, tout le monde peut, avec un prompt, tout le monde peut, depuis chez lui, créer des vidéos de grande qualité, eh bien vous imaginez que ce sera quand même une petite révolution. Donc Google a frappé fort. J'espère que je n'oublierai rien. Je vais vérifier et je reviendrai sur cette actu, si jamais j'oublie. Mais il y a eu quand même beaucoup d'autres annonces, mais celles -ci sont les principales on va dire. Gemini et Google qui font un comeback incroyable et qui se placent vraiment en leader.
On peut voir que leur chercheur et qu'ils ont mis du budget pour rattraper leur retard initial et ça fonctionne. C'est une véritable machine qui est en train de rouler sur le monde de l'IA Générative et qui concurrence OpenAI et Chars GPT. Et du coup, j'y viens. OpenAI a sorti un nouveau mode. Un nouveau mode qui est réservé aux utilisateurs pro++, je ne sais pas comment on appelle ça, mais ceux qui payent 200 euros par mois, car oui, OpenAI a un mode d'abonnement à 200 euros par mois. C'est vraiment pour les gens qui utilisent extrêmement souvent ChargeJPT et qui veulent avoir accès à plein de fonctionnalités, toutes les fonctionnalités que peuvent offrir OpenAI. Et d'ailleurs, j'avais vu que le CEO de OpenAI, Sam Altman, avait dit que ce mod qui coûte 200 euros par mois n'était au final même pas rentable pour OpenAI. Pourquoi ? Parce qu'il y avait tellement de requêtes, il y avait tellement de vidéos sur Sora, il y avait... tellement d'utilisation par ces utilisateurs que au final, ça coûtait plus cher en inférence à l'entreprise que ça ne leur apporte de l'argent. Pour vous dire que l'utilisation peut être massive par certains utilisateurs de chat GPT. Et donc, OpenAI a sorti Codex. Donc c'est un agent IA également. Et c'est assez impressionnant. C'est -à -dire que vous pouvez, c'est un agent qui code pour vous ou qui peut être votre partenaire de code. Donc ça peut être synchrone ou asynchrone. Vous avez un outil en ligne de commande qui s'appelle Codex CLI. Ça, c'est pour les développeurs qui veulent coder en ligne de commande et c'est à sa concurrence donc Cursor ou Winsurf. Bien que Winsurf a été acheté par OpenAI. mais certains développeurs préfèrent utiliser les lignes de commande, et en plus c'est open source, pas les modèles mais l'outil. Et là, ils ont sorti Codex, qui est une interface où on peut connecter un répertoire de codes, notamment via GitHub, qui est la référence de l'hébergement de codes, et vous pouvez lui déléguer des tâches pendant que vous faites autre chose, c'est -à -dire que vous allez lui demander une nouvelle fonctionnalité. Et le mode Codex va développer cette fonctionnalité sur votre application, et va créer donc une branche sur GitHub, parce que vous savez que, ou vous ne savez pas d'ailleurs si vous n'êtes pas développeur, mais vous pouvez créer des branches pour développer chacun de votre côté, comme sur un arbre, on part chacun d'un côté. Et une fois que vous avez vérifié que cette branche contient la fonctionnalité, vous pouvez la fusionner avec la branche principale de votre application. Eh bien Codex peut développer des nouvelles fonctionnalités pour vous, mettre ça sur une nouvelle branche, vous vérifiez que la fonctionnalité fonctionne bien. Et si elle fonctionne bien, vous allez fusionner ça à la branche principale de votre application. Et ce qui est incroyable également, c'est que vous pouvez le faire depuis votre smartphone, depuis votre téléphone. Si vous avez l'application T -Shirt GPT et l'abonnement à 200 euros par mois, l'abonnement plus plus, on va dire. Vous pouvez déléguer des tâches pendant que vous êtes dans les transports en commun, pendant que vous faites une balade en pleine nature et Tchad Jpt va coder pour vous et vous allez recevoir des notifications quand c'est prêt, etc. C'est vraiment impressionnant. Et franchement, je me tâte à prendre ce mode parce que je suis en pro pour l'instant, mais je me dis que ça peut être très pratique d'avoir Un agent IA connecté à son répertoire GitHub qui peut coder pour nous. En tout cas, c'est très impressionnant. Bravo à OpenAI. D'ailleurs, ils ont, deuxième actu, les concernants, ils ont mis à disposition leur modèle GPT 4 .1 dans ChiaGPT. Le modèle 4 .1 était accessible uniquement via l'API. Et moi c'est le modèle que j'utilise dans mon application que je vais bientôt sortir et dont je vais vous parler dans un podcast à part. Et j'avais trouvé ce modèle fantastique, incroyable. Tellement pertinent, tellement bon, avec une fenêtre de contexte immense de 1 million de tokens, je crois. Très pratique pour créer des agents IA. Et donc ils intègrent finalement ce modèle dans ChasGPT. Donc ça prouve quand même que c'est le meilleur. Moi j'avais créé un outil d'évaluation de plusieurs modèles d'IA que j'ai créé en interne que je pourrais d'ailleurs mettre sur GitHub en open source que j'ai peut -être mis sur GitHub en open source, je me souviens plus. En tout cas, je pouvais mettre n'importe quel modèle et tester l'output, donc la sortie d'une requête sur tous ces modèles et ensuite comparer. et avec un mode JSON notamment où je pouvais comparer les JSON de sortie de chaque modèle et ça me permettait de voir lequel est le meilleur pour mon cas d'application à moi parce que après je donnais ces résultats à un professionnel du métier de mon application qui pouvait me dire quelle sortie était la meilleure et donc au final on a vu que le meilleur modèle c'était GPT 4 .1 et qui donnait des résultats vraiment incroyables. Je vais voir pour mettre cet outil en open source parce que c'est vrai que c'était pratique et je le mettrai potentiellement dans la description de cet épisode de podcast. Enfin que tout le monde s'en serve, il y avait une interface donc c'était assez facile d'utilisation.
Donc voilà pour OpenAI ou OpenAI, ça dépend comment on le prononce, si on le prononce à l'anglaise ou à la française. En général, c'est vrai que j'aime bien le prononcer plus dans la langue de l'entreprise, donc plutôt OpenAI, mais parfois je dis OpenAI parce que ce podcast est en français. Nouvelle actu parce que l'on parle du français. Eh bien, l'acteur français Mistral a sorti le modèle DevStral. et donc je dois les féliciter bravo Mistral vous avez fait un sacré boulot dans l'épisode 1 où vous présentez les acteurs de l'IA générative je disais c'est vrai que Mistral ça faisait quand même un moment qu'ils n'avaient pas sorti de nouveaux modèles d'IA très performants alors ils en avaient sorti pour des cas d'usage particuliers mais pas vraiment des modèles qui excellaient dans les benchmarks afin d'être dans le top 10 voire le top 3 on va dire des modèles et bien là ils ont sorti DevStral et DevStral c'est l'équivalent de GPT 4 .1 c'est à dire un modèle conçu pour créer des agents et notamment des agents pour coder mais moi je pense que c'est pas forcément uniquement pour coder mais dans leur description ils disent que c'est des agents pour coder moi j'ai créé un agent qui ne fait pas forcément du code mais pour lequel GPT 4 .1 est très performant. Et donc DevStral, c'est l'équivalent, c'est -à -dire grosse fenêtre de contexte, parce que les agents ont besoin d'avoir beaucoup de contexte, parce qu'on va leur donner beaucoup d'instructions et beaucoup d'outils et de descriptions d'outils pour qu'ils puissent déclencher ces outils. Donc il leur faut une grosse fenêtre de contexte. Et DevStral, je pense à une grosse fenêtre de contexte puisque c'est un agent puisque c'est un modèle pour créer des agents qui vont coder.
Et non seulement, ils l'ont mis en open source. C'est exceptionnel. Tout le monde peut l'avoir accès gratuitement à ce modèle et le déployer dans son application. Mistral reste avec son ADN de l'open source. Et en plus, ce modèle surperforme beaucoup de modèles. Et notamment sur performance de 20 % GPT 4 .1 mini. GPT 4 .1 mini, c'est une version réduite de GPT 4 .1. Donc GPT 4 .1 reste le meilleur, mais il est aussi très gros, c'est -à -dire qu'il a beaucoup de paramètres et donc il consomme beaucoup d'énergie et il coûte cher. Tout est lié, en gros, le nombre de paramètres. Plus on en a, plus le modèle, on ne peut pas le déployer n'importe où, il consomme de l'énergie. Et donc DevStral, moi j'aime beaucoup Mistral parce qu'ils font des agents, des modèles, pardon, open source. Et également assez volatile et petit avec peu de paramètres. Et c'est une prouesse parce que dans le monde de l'IA générative, on dit souvent que les OpenAI qui créent des modèles avec un milliard de paramètres, etc. C'est vraiment des bourrins, c'est -à -dire qu'ils ont énormément de ressources, ils vont leur faire manger à leur modèle toutes les données possibles. Mais là où est la vraie compétence, et notamment celle de Mistral, c'est de créer des petits modèles qui vont être quand même très performants. Et ça, c'est beaucoup plus dur, mais c'est aussi beaucoup plus efficace d'un point de vue écologique. parce que c'est le futur en fait d'avoir des petits modèles. Pourquoi aussi ? Parce qu'on va pouvoir les déployer dans des robots. Quand on va mettre des modèles d'IA générative dans la robotique, il faut que ces modèles soient petits pour rentrer sur une carte graphique, des microprocesseurs, etc. Donc il faut qu'ils soient volatiles, petits et ça c'est une vraie prouesse et mistral dans ce domaine de créer des modèles frugaux et très très forts. Et c'est une fierté parce que ça s'est aligné avec nos valeurs en France et puis nos valeurs aussi d'écologie, nos valeurs... Voilà, c'est un signe d'intelligence et de performance d'être très bon sur des petits modèles. Donc bravo à Mistral. Pour ce modèle DevStral, j'ai hâte de le tester. Pourquoi pas l'intégrer dans mes applications? Honnêtement, pourquoi pas? J'attends justement, je n'intègre pas de modèle Mistral. Mais franchement, j'attendais le jour où j'avais un modèle qui correspondait à mon cas d'usage et aux performances que j'attendais pour intégrer. Et évidemment que je vais préférer Mistral à OpenAI parce que c'est moins cher, parce que c'est un modèle open source et parce que c'est un modèle plus petit en termes de paramètres. Et j'en viens, j'en viens à cette dernière actualité qui est un React. Donc je vais réagir à un commentaire de de Jean Covici donc Jean -Marc Jean Covici qui est le patron de l'entreprise je crois que ça s'appelle Carbon 4 qui est en tout cas un ingénieur diplômé des mines de Paris je crois et qui est la référence et l'expert en termes de carbone et d'émission de CO2 dans l'atmosphère etc. qui est toujours très pertinent et très cinglant. Et Jean -Marc Jancovici a parlé de l'IA Générative dans une interview avec Léa Salamé sur France Inter et également dans une conférence à Genève. Je vais vous passer un extrait et j'aimerais réagir à cet extrait parce que il est quand même très critique vis -à -vis de l'IA Générative et je vais vous dire ce que j'en pense. je suis bolo à la fin de terme, il y a des tas de trucs dans lesquels on est allé et on peut très bien dire qu'on n'aurait peut -être pas dû. Donc quand je vois 109 milliards pour l'IA, alors que pour gérer 10 % du territoire français, l'office national des forêts à 1 milliard par an, alors que la forêt est en train de crever, moi ce que je me dis c'est qu'on n'est peut -être pas en train de gérer les priorités dans le bon ordre.
Voilà, c'est ça qui me gêne. C'est -à -dire que dans un monde aux ressources infinies, que l'on fasse des gadgets en plus des trucs essentiels, pas bien si ça nous amuse, moi j'ai aucun problème avec ça, mais dans un monde aux ressources finies, qu'on fasse des gadgets à la place des trucs essentiels, ça, ça m'ennuie. Et en fait, c'est bien dans ce cadre -là que je me situe. L'IA, elle est essentiellement promue par les 5 % de la population qui n'ont pas de problème et qui sont encore les gagnants de la mondialisation. Mais pendant ce temps -là, on ne s'occupe pas des problèmes qui concernent 90 % de la population. Donc vous voyez qu'il est quand même très cinglant et je vais réagir rapidement. Parce que quand même, il y a un truc qui m'irrite, les amis. Et là, je dois le dire. Alors c'est un expert en CO2, pas forcément en IA générative, après bon, il est ingénieur et je pense qu'il comprend très bien comment ça fonctionne. Jean -Marc Jancovici est quelqu'un de très intelligent et très pertinent. Premier commentaire, 109 milliards pour l'IA, car oui, il y a eu, je crois que c'était à Chousse France, des investissements dans l'IA, c'est très bien, mais à voir ce que ça va donner, mais 109 milliards pour l'IA et 1 milliard pour les forêts, c'est totalement disproportionné. Alors oui, c'est une opinion. Donc là, honnêtement, c'est son opinion et chacun est d'accord ou pas d'accord. C'est vrai que peut -être que l'Agence nationale des forêts n'a pas le budget nécessaire. Et dans ce cas, évidemment qu'il faudrait, c'est pas parce qu'on donne 109 milliards à l'IA qu'on doit pas donner aussi des milliards aux forêts. On peut très bien faire les deux.
Ce n'est pas incompatible. C'est ça que je veux dire. Donc je vois pas pourquoi on oppose les forêts et l'IA générative pour le coup en termes de budget. Ensuite, faire des gadgets. Donc il compare l'IA générative à un gadget. Je vais revenir dessus parce qu'il y a un deuxième extrait. Mais passons à la troisième remarque où il dit que c'est les 5 % de la population qui profite encore de la mondialisation et qui n'ont pas de problème, qui promeuvent l'IA Générative. Alors oui, peut -être. Très bien. Mais en quoi c'est mal ? Parce que l'IA Générative, c'est quand même un des seuls outils avec Internet et l'électricité justement. C'est la description du podcast et de l'émission qui permet à n'importe qui d'avoir toutes les connaissances sur Terre. Donc en fait, c'est peut -être les 5 % les plus aisés qui le promeuvent, mais l'IA Générative va aider beaucoup plus les 95 autres % que ces mêmes 5%. Parce que les 5%, vous croyez qu'ils ont besoin de chasse GPT pour avoir accès à un avocat, pour avoir accès à un comptable, pour avoir accès à des services qui demandent des fonds et des moyens ? Non. C'est plutôt... Le reste de la population est surtout les moins aisés qui peuvent profiter le plus de tchats GPT dans leur vie quotidienne, dans leur travail, pour développer leur productivité, pour simplifier leur journée, pour les aider dans leur administratif parce qu'ils n'ont pas forcément accès à un comptable qui va le faire pour eux. Et j'ai des tas d'exemples pour cela. Eh bien, c'est ces gens -là que l'IA Générative va le plus aider. Et c'est pour ça qu'il faut démocratiser l'IA générative à tous. Et c'est ce que je fais dans ce podcast gratuitement. Donc laissez -moi s'inquiéter, Al, s'il vous plaît, ça m'aidera. J'arrête de m'en dire. Mais voilà, c'est un gadget. Excusez -moi, mais quand on voit que l'IA peut aider à développer de nouvelles protéines pour soigner des maladies, par exemple, vous appelez ça un gadget ? Moi, je n'appelle pas ça un gadget. Je vais vous passer le deuxième extrait parce que Il développe ce point et c'est un extrait que j'ai trouvé sur YouTube qui est hyper intéressant. Donc je vous passe ça et je réagis au deuxième extrait. Et donc la première question c'est est -ce que c'est utile de rajouter aujourd'hui des systèmes qui sont très voraces en énergie, savoir qu'une requête sur chat GPT ça consomme 10 à 15 fois plus d'énergie qu'une requête sur Google. Alors je me permets de couper parce que sinon je vais oublier peut -être certaines parties. Alors oui, une requête chat GPT peut consommer plus que Google, très bien. D'ailleurs, vous avez vu dans cette revue d'actualité que Google va intégrer un mode IA dans ses recherches, donc les nouvelles recherches Google vont consommer autant qu'une requête chat GPT, voire plus. Voilà, juste pour rebondir et je laisse Jean -Marc Jean -Rouge ici continuer. Pour la petite histoire, ça concerne des gens dans cette salle. C'est marrant parce que je connais quelqu'un qui travaille sur un outil d'IA érotique, justement. Alors ça, pareil, qu'est -ce que vous voulez que... Si les gens, ils font des requêtes érotiques, c'est... oui, c'est leur problème, j'ai envie de dire. Alors peut -être que ça consomme du CO2, mais le fait qu'ils vivent, ça consomme aussi du CO2. Donc on fait quoi ? On se passe de ces gens -là ?
Je sais pas. Alors, question subsidiaire, est -ce que l'IA peut éventuellement nous aider à résoudre d'autres problèmes ? Moi, ma réponse, c'est peut -être, mais sûrement pas des problèmes d'environnement. Parce que c'est parfait pour ça. Tchad GPT, par exemple, ne résoudra aucun problème d'environnement. c'est fait pour éventuellement remplacer les avocats, c'est fait éventuellement pour permettre aux médecins d'être plus efficaces, etc. C'est pas du tout fait pour... Et tu restes au système digital actuel, il n'est pas du tout fait pour améliorer l'environnement. Alors, TchadJPT n'est pas fait pour améliorer l'environnement, mais peut largement être utile pour améliorer l'environnement, puisque TchadJPT est entraîné sur toutes les connaissances et peut développer des nouvelles choses. notamment améliorer des processus, optimiser des processus. J'ai vu par exemple que Google avait créé une IA qui pouvait permettre de prédire des feux de forêt. Prédire avant qu'il n'arrive avec une forte probabilité des feux de forêt. Tout ça grâce à l'IA, donc ne me dites pas que l'IA n'est pas utile pour améliorer l'environnement. Il y a forcément des cas d'usage où l'IA est utile pour améliorer l'environnement et il faut les chercher. Et il y en a déjà. Comme là, je vous ai cité les feux de forêt, c'est le premier qui me vient en tête. Je ne connais pas forcément tous les cas d'usage, mais je suis sûr qu'il y en a. Donc, l'IA peut aider à améliorer l'environnement et le fait déjà et va continuer de le faire d'une certaine façon. Est -ce que ça veut dire que ça compense toutes les émissions de CO2 qu'il a fallu pour... Entraîner ces modèles, je ne sais pas, peut -être pas, je ne suis pas compétent sur le sujet pour le dire, mais dire que l'IA ne n'aide pas du tout pour l'environnement, bah, excusez -moi, mais c'est factuellement faux. Mon téléphone, il est fait pour communiquer avec mes proches ou avec des moins proches. Ça ne sauve pas spécialement l'environnement, ça. Il faut rien dire. Moi aussi, parce que c'est mon métier. Mais globalement, quand les gens se téléphonent, c'est pas pour sauver l'environnement. Quand les gens regardent un film sur Netflix, c'est pas pour sauver l'environnement. Oui, effectivement. Bon, ça, ça ne concerne pas l'IA. Donc je vais pas faire de commentaires plus que ça. Mais les gens ne vivent pas forcément toutes leurs secondes de vie pour sauver l'environnement. Sinon, ils ne vivraient pas tout simplement.
Quand les gens utilisent un jeu vidéo en ligne, c'est pas pour sauver l'environnement. Quand ils regardent une vidéo, c'est pas pour sauver l'environnement. Faut savoir que la vidéo, c'est 75 % du trafic Internet. Et là -dedans, vous avez quatre compartiments. Le premier c'est YouTube. Alors vous avez quelques vidéos pour sauver l'environnement sur YouTube, mais enfin l'essentiel c'est pas ça. Enfin YouTube et consorts, etc. Le deuxième c'est le porno. Je sais pas si ça sauve beaucoup l'environnement. Le troisième c'est Netflix et les systèmes de streaming. Pareil, je sais pas si ça sauve énormément l'environnement. Et le quatrième c'est toutes les vidéos de petits chats et du petit dernier qui vient d'avoir sa dent, qu'on envoie à la cousine, qu'on a strictement rien à faire. Mais c'est pas grave, on le fait quand même. Voilà, c'est ça les... Non, les enfants, les siens sont géniaux, les autres, un peu moins. Donc, c'est à ça que ça sert. Est -ce que tout ça sauve l'environnement ? Est -ce que l'IA va sauver l'environnement ? Pas plus ! Je trouve que la comparaison entre des vidéos, la pornographie et l'IA générative, c'est des choses qui n'ont strictement rien à voir. Ça n'a pas les mêmes usages du tout. Est -ce que ça va avoir des effets adverses sur la consommation d'énergie ? C'est sûr que oui. Aujourd'hui, vous avez des data centers qui sont envisagés pour les larges modèles de langage dont la puissance appelée serait de 1 GW. 1 GW, c'est un gros barrage, une bonne centrale à charbon ou un réacteur nucléaire. C'est ça, 1 GW. Juste pour faire tourner... un truc qui ferait éventuellement papa -maman et qui vous classe les CV un peu plus vite. Vous voyez quand même, donc il est très drôle déjà, je l'adore Jean -Marc Jancovici, mais limiter l'IA générative entre quelque chose qui fait papa -maman et qui classe les CV, je pense qu'il faudrait qu'il écoute le podcast parce que je vous ai quand même cité des cas d'usage dans les épisodes précédents qui ne se limitent absolument pas à classer des CV. et faire papa -maman ou je ne sais quelle métaphore ou avoir des conversations érotiques mais en tout cas si vous n'avez pas suffisamment de cas d'usage ce podcast est fait pour ça et j'espère que Jean -Marc Jancovici va écouter ce podcast et pourquoi pas je l'invite s'il veut je pense pas qu'il va écouter mais je l'invite avec grand plaisir en tout cas moi je ne suis pas compétent pour pour tout ce qui est CO2, etc. Donc je ne me prononce pas sur le sujet, ça consomme bien sûr énormément d'énergie.
Maintenant, les gros modèles de fondation, comme on dit, c'est un peu du pourrinage et même Open AI, etc. Ils ont consommé énormément d'électricité, de puissance de calcul pour entraîner ces modèles. Après, il faut savoir qu'il y a une autre voie qui est possible, celle que Promistral. Donc en France, on n'a pas forcément de leçons à recevoir des États -Unis, etc. parce qu'on est quand même en avance là -dessus. Et même, je pense aux modèles Deep Sick des Chinois, c'est -à -dire les gens qui ont moins de ressources, qu'est -ce qu'ils font ? Ils peuvent utiliser les modèles de fondation pour entraîner leur propre modèle plus petit. C'est -à -dire qu'ils vont générer ce qu'on appelle des données synthétiques. Donc en gros, tchatjpt va entraîner un modèle plus petit, va être son tuteur. Puisqu'il est très fort le modèle de fondation, mais il a énormément de paramètres. On veut un modèle plus petit. Eh bien, on va entraîner ce modèle plus petit grâce à un modèle plus gros. Donc ces modèles de fondation peuvent permettre de créer des modèles plus petits au final. Maintenant, voilà, c'est sûr que l'IA consomme quand même de l'énergie. à nous d'en faire bon usage, c'est pour ça que j'ai fait un épisode aussi sur comment bien parler à l'IA, parce que j'ai vu que beaucoup de gens n'obtiennent pas forcément les résultats voulus du premier coup et du coup il y a beaucoup d'itérations, donc beaucoup de requêtes dans ChaGPT, alors qu'avec un bon prompt, déjà on peut réduire ce nombre de requêtes pour obtenir le résultat. Donc ça serait une première étape, ce serait de bien prompter, bien réfléchir avant de créer son prompt et... Après, on obtient directement le résultat et on réduit notre propre consommation d'inférence tout en gardant les avantages de CHAT GPT dans notre vie quotidienne, notre productivité, notre créativité. Donc voilà, je voulais réagir à ça parce que l'interview de Jean -Marc Joucovici sur France Inter s'est fait cette semaine. C'est assez récent et ça me permettait aussi d'aborder un petit peu le sujet de l'IA en lien avec l'écologie. Même si je suis compétent en NIA mais pas forcément en écologie, on a quand même abordé quelques thèmes. C'est tout pour les actualités de la semaine que j'ai sélectionnées. J'espère que je n'ai pas manqué d'actualités hyper importantes. Dites -moi si jamais dans un commentaire si je l'ai fait ou contactez -moi. Et on se dit à la prochaine pour un nouveau résumé d'actu ou un nouvel invité. C'était Guillaume, ciao !