← Retour aux épisodes

Actu IA #6 : Lovable, Meta Superintelligence Lab, Modèles Chinois, gpt-oss, Veo 3

7 août 2025

Dans cet épisode, nous passons en revue les actualités marquantes de l'intelligence artificielle des dernières semaines (26 juin 2025 - 07 août 2025). Alors que Meta propose des salaires mirobolants pour débusquer les meilleurs chercheurs en IA, les laboratoires chinois sortent de plus en plus de modèles de pointe open-source. L'Europe a quelques pépites avec notamment Lovable. La prochaine révolution sera sur la génération de vidéos par IA.

Une question ? Contacte-moi : guillaume.gay@protonmail.com.


Transcription

Bienvenue dans Génération IA, le podcast qui vous aide à maîtriser l'IA générative afin de simplifier votre quotidien, booster votre productivité et développer votre créativité. Bonjour les amis, bienvenue dans ce nouvel épisode de Génération IA. Nous sommes en pleine période estivale et je suis de retour parce que je n'ai pas tourné de podcast ces quelques dernières semaines. Il faut dire que j'étais très occupé. Puisqu'il y a eu énormément de développement autour de l'intelligence artificielle générative. Encore une fois, j'ai l'impression de me répéter chaque podcast. Mais d'une semaine à l'autre, il y a d'énormes nouvelles qui tombent. Et là, comme ça fait plusieurs semaines, j'ai beaucoup, beaucoup de choses à vous dire et c'est vraiment cool qu'on puisse faire ça ensemble. C'est pas parce que je n'ai pas tourné de podcast récemment que j'abandonne ce projet loin de là. Ce n'est que le début. Cependant, j'avais beaucoup de travail parce que, eh bien, je travaille sur d'autres projets que le podcast qui me prennent beaucoup de temps. Le podcast, c'est vraiment un petit à côté très cool qui me permet de vous parler. D'ailleurs, merci à tous parce qu'on dépasse les plus de 100 écoutes sur tous les premiers podcasts. Donc, c'est encourageant pour un podcast qui n'a fait absolument aucune communication. Donc je vous remercie, n'hésitez pas à mettre 5 étoiles sur la plateforme de streaming sur laquelle vous écoutez le podcast, que ce soit Spotify, Apple Podcast ou d'autres plateformes. Et on va commencer avec ce nouvel épisode. On va essayer de combler le retard des dernières semaines. Et comme ça, je ne sais pas d'où vous écoutez ce podcast, si c'est en faisant du sport, dans la voiture ou même maintenant à la plage puisque... Nous sommes au mois d'août et les vacances vont commencer. J'aimerais d'abord vous parler, ben déjà, je ne sais même pas par où commencer honnêtement. Il y a une avancée fulgurante sur tous les modèles, une percée chinoise des modèles, notamment open source. La stratégie chinoise est vraiment différente de la stratégie des big tech américaines, même si... L'Open Source devient un peu à la mode, c'est vrai, dans la Silicon Valley. Il y a eu les salaires mirobolants de l'équipe Meta Super Intelligence. On va y revenir. Il y a un tout nouveau modèle de OpenAI, Open Source, qui est sorti je crois hier ou avant -hier, donc c'est très récent. Je pense que c'était cette semaine, donc potentiellement avant -hier. Et bien, il y a d'autres nouvelles, évidemment. Google Vo3 avec la génération de vidéos, notamment pour la création de publicités et de contenus pour les réseaux sociaux. Donc ça, ça va être quelque chose de très, très gros. J'y reviendrai. Lovab Coding est petit aparté sur l'entreprise suédoise Lovable, qui atteint les 100 millions de revenus récurrents annuels.

Et je crois que c'est l'entreprise la plus rapide à atteindre ce palier devant Cursor, qui était un autre environnement de développement avec de l'intelligence artificielle intégrée. Ensuite, il y avait forcément OpenAI, Netflix. Et j'en oublie certainement quelques uns, mais la liste se cantonne à peu près à ces entreprises qui ont connu une croissance fulgurante. jusqu'à atteindre 100 millions de revenus récurrents annuels, donc c'est via des abonnements en général. Et en fait c'est une projection d'environ 100 millions, enfin de 200 millions de revenus récurrents annuels, soit 100 millions divisé par 12, qui doit faire, je sais pas, peut -être 8 millions par là, un peu moins peut -être, de revenus récurrents mensuels. Donc tous les mois ils font une certaine somme et du coup sur un an ça fait 100 millions. évidemment les gens peuvent se désabonner. Donc le revenu récurrent annuel n'est pas forcément un revenu garanti à 100 % parce qu'il y a ce qu'on appelle le churn, c'est -à -dire les gens qui se désabonnent. Et je pense que pour des entreprises comme l'available, eh bien le churn peut être élevé. En fait, si vous voulez, Cursor, qui est un environnement de code avec de l'intelligence artificielle, atteint très vite 100 millions de revenus récurrents annuels.

Et puis, du coup, forcément, il y a eu des concurrents. Il y a eu notamment Cloud Code, qui est un outil en ligne de commande dans le terminal, qui a tous les modèles de Anthropic, les derniers modèles Cloud intégré, notamment Cloud Opus, qui est un des meilleurs du monde pour coder, si ce n'est le meilleur. Je crois qu'il y a Cloud 4 .1 Opus qui est le meilleur du monde. Et puisque Cloud Code intègre ces modèles qui sont très forts et que c'est un outil vraiment bien fait, honnêtement, il y a beaucoup de gens qui se sont désabonnés de Cursor pour prendre l'abonnement à Cloud Code. Donc il peut y avoir comme ça des grosses migrations d'utilisateurs d'un outil à un autre. Et pour moi, l'ovable, c'est à ce risque, en fait, parce que c'est typiquement le type de logiciel. qui peut se faire concurrencer. Il y a beaucoup de concurrents. Il y a Bolt .new qui est un autre concurrent. L'Ovayable, concrètement, j'ai peut -être dû déjà en parler, mais ça permet de créer des sites web très rapidement via une interface de prompt et des itérations. Mais pour moi, la vraie plus -value de l'Ovayable, c'est pas seulement la création de sites web, parce qu'il y a d'autres fournisseurs qui permettent de faire ça avec de l'intelligence artificielle. Mais c'est déjà l'interface de prompt en langage naturel via l'IA générative. Ça génère le code. Ce n'est pas seulement des composants pré -crés qui sont assemblés, donc c'est vraiment la génération sur mesure. Le code peut s'exporter via GitHub.

On peut ensuite déployer le code sur n'importe quelle infrastructure. Et surtout, il y a une intégration avec SuperBase, qui est un outil qui héberge des bases de données PostgreSQL, relationnelles, et qui dispose d'un SDK, donc qui permet en fait à Lovable de se connecter directement à la base de données via SuperBase. Et donc c'est plus que des sites Internet. Pour moi, Lovable, c'est vraiment la création de SaaS, donc Software as a Service. Ça permet de créer des produits qui sont monétisables très rapidement. Vous pouvez créer votre propre SAS avec Loveable, même si vous ne savez pas coder, parce que la plus -value d'un SAS, pour moi, c'est une base de données, en fait, tout simplement. À partir du moment où vous avez une base de données, vous pouvez bâtir un service par -dessus qui s'adapte pour tel ou tel niche, et donc vous pouvez monétiser votre software. Bien sûr, il faut faire le marketing nécessaire, les ventes nécessaires. Ça, c'est quelque chose dont je ne suis pas du tout un expert et donc c'est bien pour ces gens -là en fait qu'ils peuvent maintenant créer leurs propres produits et directement le vendre. Maintenant, il peut y avoir des concurrents et il suffit qu'un concurrent soit un peu meilleur ou alors propose un prix un peu en dessous pour que les gens... Switch tout simplement d'abonnement. Il n'y a pas de pitié. Les consommateurs, ils cherchent la meilleure qualité au meilleur prix. Et donc, ils peuvent switcher de low payable.

Mais low payable a quand même levé des fonds avec une valorisation, je crois, à 200 millions de dollars. Je me trompe peut -être, mais ils ont levé des fonds. Donc, ils peuvent se permettre de garder des prix bas parce qu'ils ont énormément de cash en réserve. Mais... Voilà pour Lovable, qui est une entreprise suédoise, donc on peut dire fierté européenne, même si il n'y a pas vraiment de lien avec l'écosystème français, par exemple, puisque c'est une boîte qui est basée à Stockholm avec des ingénieurs suédois. Et c'est vraiment cool d'avoir ce genre de boîte en Europe. Franchement, il en faudrait des dizaines, des comme ça. Il y en a déjà en fait presque des dizaines. Il y a Mistral. Il y en a des nouvelles, j'avais parlé de The Age Company qui lançait à peine son produit, mais il y en a plein, mais il en faudrait encore plus parce que quand on voit la concurrence qu'il y a, notamment dans la Silicon Valley et maintenant en Chine, c'est hallucinant le niveau et les moyens qui sont mis en place. Parlons du coup de Meta Super Intelligence Lab. qui est justement le laboratoire mis en place par l'entreprise Meta et dynamisé par Mark Zuckerberg, le CEO de Meta. Je suis sûr que vous n'avez pas raté cette information parce que même ceux qui ne sont pas, qui n'écoutent pas forcément les podcasts de Génération VR, qui ne sont pas dans l'IA Générative, eh bien, comme ça parle de gros sous, ça a quand même fait la lune de plein de journaux, eh bien... Meta a proposé des salaires mirobolants pour recruter les meilleurs chercheurs dans l'IA aux Etats -Unis. Ils ont notamment démarché les chercheurs de OpenAI, les chercheurs de Google, avec Google DeepMind, qui est un laboratoire de recherche également, et même les chercheurs de l'entreprise Thinking Machines qui a été créée par Mira Murati, qui est l'ancienne CTO de OpenAI. et qui est, je crois, d'origine albanaise. C'est une femme remarquable qui est dans la trentaine et qui a réussi à être au top du niveau technologique puisqu'elle travaillait au cœur de OpenAI et elle a démissionné pour créer son entreprise Sinking Machines. Elle a levé 2 milliards de dollars, je crois, alors qu'elle n'avait absolument aucun produit. Voilà, elle a réussi à lever 2 milliards de dollars sans aucun produit. Et je pense même qu'elle pouvait lever plus, mais qu'elle avait besoin que de 2 milliards, ce qui est déjà énorme. Et elle a annoncé que Thinking Machines allait sortir son produit dans les mois qui viennent. Ça fait un peu écho à l'entreprise SSI, Super Intelligence, je sais pas. Je crois que c'est juste Superintelligence qui avait été créé par l'autre chercheur très important de OpenAI, Ilya, qui est d'origine russe. Donc, j'avais déjà parlé dans un autre podcast qui est vraiment un des top chercheurs en IA. Donc, ce noyau dur de OpenAI, c'est divisé. Chacun peut créer sa propre branche, sa propre entreprise. Donc, en fait, la concurrence va encore s'accroître, ce qui est plutôt une bonne nouvelle pour nous, les consommateurs d'intelligence artificielle. Mais pour dire que l'environnement américain est très concurrentiel et du coup, les packages des chercheurs en termes de salaire qui étaient recrutés par Meta allaient potentiellement jusqu'à 100 millions de dollars annuels plus 100 millions de dollars à la signature en dans le package, soit en cash, soit en action méta.

C'est tout simplement énorme. Imaginez, c'est plus que des grands joueurs de foot type Messi ou Cristiano Ronaldo, en fait. C'est comme des transferts footballistiques, mais là, c'est en chercheurs, en IR. Vraiment, ce marché des transferts, il est impressionnant. Et il secourt même la rumeur. Alors, je ne sais pas si c'est confirmé, mais c'est ce que j'ai entendu qu'il y a un chercheur, justement, comme je disais, pardon, de Thinking Machines, qui a été démarché avec une offre de un milliard de dollars. Mais je ne pense pas que c'était sur un an. Je pense que c'était sur des années, peut -être quatre ans, voire plus. Et celui -ci a refusé. Donc, le mec, on lui a promis d'être milliardaire sans prendre aucun risque. Il a refusé. Franchement, il n'y a que dans l'informatique qu'il y a cette mentalité. Ça fait beaucoup écho à l'open source parce que l'open source, c'est vraiment une façon de penser qui est de contribuer gratuitement à des projets pour que ça bénéficie à l'ensemble, à l'ensemble de l'humanité, à d'autres gens, à d'autres projets. C'est presque de la philanthropie, mais c'est un peu à part. Il faut vraiment être dans le milieu pour voir. C'est vrai qu'il y a un côté satisfaisant à contribuer à des projets open source, parce que vous êtes quand même reconnus par la communauté, notamment sur des sites comme GitHub qui hébergent le code, où vous pouvez avoir des étoiles sur vos projets, donc plus vous en avez, plus il y a un côté quand même gratifiant, et plus vous avez quand même une belle réputation. Les chercheurs qui contribuent beaucoup à l'open source, ben forcément c'est des chercheurs, ou des ingénieurs pardon, qui savent coder. et qui sont très bons dans ce qu'ils font et du coup ils ont juste à montrer les projets dans lesquels j'ai contribué et ils peuvent décrocher une offre d'emploi à peu près n'importe où sauf dans le top top peut -être mais voilà là on lui a promis un milliard le mec a refusé franchement gigachad donc voilà pour ça et je parlais de l'open source En comparaison, il y a le modèle chinois qui est en train d'émerger. On a vu de plus en plus d'acteurs chinois émerger dans l'IA générative avec des nouveaux modèles open source. Et c'est intéressant parce que comme si, en fait, ils avaient un manque à combler, les acteurs chinois sortent beaucoup de modèles open source qui sont parfois meilleurs que des modèles américains qui ne le sont pas. En général, une entreprise Elle va sortir son modèle open source, mais elle va garder un modèle qui n'est fermé, en fait, qui n'est pas open source, qui sera meilleur pour pouvoir le commercialiser. Et donc donner un peu un modèle un peu moins bon gratuitement, mais en contrepartie, les meilleurs modèles, je les garde pour moi pour me faire un max de blé. Ça peut se comprendre, mais on a vu beaucoup d'entreprises chinoises sortir leur modèle open source, donc il y a Enfin, c'est plutôt des labos de recherche, j'ai l'impression. Il y en a un, ça s'appelle Kimi et qui ont sorti un modèle qui s'appelle K2, qui est multimodal, qui a un trillion de paramètres. Donc les paramètres, ce sont en fait des neurones dans un réseau de neurones artificiel. Ce sont les poids en fait d'un réseau de neurones. Et là, il y a énormément de paramètres. En général, plus il y a de paramètres, plus faux d'énergie pour entraîner les modèles, plus faux de cartes graphiques, de puissance de calcul, etc. Là, il a énormément de modèles et ils sont très, très performants. Je ne l'ai pas testé, honnêtement. Il y a un autre qui s'appelle une entreprise, c'est Z .ai. Alors, je ne sais plus comment ils ont appelé leur modèle Z .ai, mais c'est simplement JLM 4 .5, voilà. Tout à fait. Donc, c'est les modèles GLM et GLM 4 .5. Vous pouvez le tester. Il y a une interface comme THGPT. Potentiellement plus de fritière d'ailleurs. Les modèles sont excellentissimes.

Et d'ailleurs, il concurrence les modèles d'OpenAI, par exemple, sur tous les benchmarks, que ce soit même pour le code, pour tous les usages. Donc, on a vu des laboratoires, des entreprises chinoises sortir leurs modèles. et faire des percées et surtout les sortir en open source. Je vous avoue, comme je l'ai dit, j'ai pas le temps de tester tous les modèles parce qu'il y a vraiment énormément de choses, énormément de concurrents et en fait, aucun humain ne peut suivre tout ce qui se passe. Moi, je vous donne vraiment ma version d'effet. J'essaye de regrouper des informations créées. Maintenant, vous pouvez creuser tel ou tel modèle, tel ou tel domaine si cela vous plaît. Sachez que toute cette diversité fait que du coup, il y en a pour tout le monde. Et c'est ça qui est bien. Tout le monde peut se spécialiser dans telle ou telle partie de l'IA, même de l'IA générative. Il y a par exemple le référencement par les modèles de langage, qui est le nouveau SEO. Ça, je sais que c'est un gros business pour que ChildGPT, par exemple, recommande votre produit ou votre marque. Il y a des stratégies. Et peut -être que j'en parlerai d'ailleurs, c'est hyper intéressant. Mais voilà pour ça. Et du coup, OpenAI, enfin, ils ont sorti leur propre modèle open source. Et c'est un peu une révolution parce que, comme je l'ai déjà expliqué plusieurs fois, OpenAI ou OpenAI avait pour vocation de créer des modèles. ouvert, c'est d'ailleurs dans le nom même de cette entreprise à but non lucratif. Open AI, donc intelligence artificielle ouverte. C'est dans leur ADN de sortir des modèles open source et pourtant aucun de leurs modèles l'étaient jusqu'alors, à part peut -être Whisper qui est du speech to text. Et c'était une des critiques qui avait fait Elon Musk. Bon, il essaye de torpiller Open AI parce que lui a créé un concurrent qui est Grok. qui viennent d'ailleurs de sortir Grok 4 qui est un excellent modèle sur tous les benchmarks également. Et ils ont aussi sorti Grok Imagine qui est un outil pour pouvoir créer des vidéos avec du prompt comme VO3. Mais j'en reparlerai rapidement. Mais OpenAI a sorti donc cette semaine les modèles open source qui s'appellent GPT OSS. Et ce qui est intéressant, donc ce qui sont très bons, bon forcément ils sont pas meilleurs que les tops des modèles OpenAI par exemple 4 .1 qui est le dernier en date et il y a bientôt le 5 qui va sortir d'ailleurs GPT -5 qui est peut -être le produit le plus attendu de l'histoire parce que forcément il y a énormément d'attente sur GPT -5 mais du coup GPT -OSS c'est un modèle open source plus petit Il y a plusieurs versions de ce modèle et la particularité, c'est qu'il peut tourner sur un Mac, par exemple sur un MacBook. Et il y a même un modèle qui peut tourner sur un téléphone en local. C'est un peu comme Apple Intelligence, cette stratégie de faire tourner. D'ailleurs, ils ont un partenariat entre OpenAI et Apple. pour faire Apple Intelligence avec des modèles OpenAI local déployés sur le téléphone.

Donc c'est peut -être suite à cette recherche que du coup, ils ont créé ces petits modèles open source qu'on peut déployer sur un téléphone. Donc j'ai vu le tweet de Sam Altman qui expliquait ça et qui disait effectivement qu'on pouvait le déployer en local ou sur un Mac. Alors, c'est pas toujours si facile que ça, mais on peut passer par des logiciels comme Olama. qui est un logiciel qui permet justement d'accéder à des modèles open source, de les télécharger, de les utiliser très facilement et on peut switcher de modèle. Donc j'imagine qu'Olama va ajouter son modèle GPT OSS très rapidement. Et il y a aussi Hugging Face qui héberge tous ces modèles qui permettent de les télécharger via leur SDK. Donc je vous laisse creuser ça si ça vous intéresse. Mais c'est cool franchement de voir que OpenAI retourne un peu à sa source, à sa charte, qui est quand même de faire avancer la recherche des modèles ouverts. Et c'est vrai que Sam Altman en a reparlé récemment et même Mark Zuckerberg quand il annonce son Meta Superintelligence Lab, ils ont tous les deux cette vision de créer une IA qui va bénéficier à l'humanité et bénéficier à chacun d'entre nous. Et franchement, c'est très important qu'il répète ce statement, il répète cette conviction, parce que c'est rassurant en fait d'entendre ce genre de choses et de voir qu'ils sont focus pour que l'IA bénéficie à tout le monde. Parce que ça peut très vite dériver, je pense. Alors après, évidemment, il y a quand même beaucoup de contrôle gouvernemental, etc. Mais je vous ai parlé dans un épisode précédent avec le titre code et menace, que il y a des comportements de l'IA qui sont encore inexplicables et qui peuvent en fait être très perturbants. Je parlais, c'était un exemple très parlant en fait, parce que c'était simplement une preuve que l'IA peut avoir des comportements menaçants si ça détermine sa survie. C'était un des rares cas mi -public où il y a eu ce genre de test mais peut -être que dans leurs tests privés, parce que évidemment tous les modèles sont testés avant d'être sortis, il y a énormément de mesures de sécurité, mais il y a peut -être eu d'autres exemples qui n'ont pas été révélés au public, c'est certainement le cas. Donc c'est très rassurant de voir tous ces patrons de la Big Tech qui revendiquent des modèles open source, safe, forcément eux ils trouvent aussi leur intérêt.

Mais la vision est intéressante, je trouve. Je trouve qu'au -delà de leur propre intérêt, il y a quand même chez eux, chez Sam Altman et Mark Zuckerberg notamment, un peu chez Elon Musk, plus que de l'intérêt personnel, une sorte de vision. Chacun a sa vision et une vision plutôt open source, plutôt qui bénéficiera à l'humanité. Pour ce qu'il en est, des modèles chinois, honnêtement, je n'ai pas beaucoup de visibilité sur ce qui se passe. En tout cas, force est de constater qu'ils ont des excellents chercheurs. Évidemment, je pense que ça ne se fait pas comme ça. Ça doit résulter d'une politique qui a dû être lancée il y a plusieurs dizaines d'années même, parce que pour obtenir ce niveau de recherche, ça demande quand même un bel écosystème et des formations très solides. Donc franchement en Europe c'est assez inquiétant de voir que les Etats -Unis et la Chine, ce sont les deux grands acteurs mondiaux et qu'en Europe on a du mal quand même à sortir et à exister même si de temps en temps il y a quand même des belles percées par ci par là. C'est pas vraiment systémique, c'est pas vraiment systématique. Je lance un appel quand même aux politiques pour qu'ils s'intéressent vraiment à ça. En fait, pour moi, la clé de voûte de tout ça, c'est la rémunération des chercheurs. Parce que, regardez aux États -Unis, la plupart des chercheurs ne sont pas américains. Ce sont des immigrés. D'ailleurs, il y a des Français qui sont très bons. On cite souvent Yann Lequin, qui est le président de la recherche chez Meta. Il est français. Il y a eu Luc Julia qui a fait Syrie, qui était français, mais il y en a plein d'autres. On a des excellents chercheurs en France. Maintenant, quand on regarde leur rémunération comparée à la rémunération aux États -Unis, forcément, au bout d'un moment, ils vont se poser des questions et s'expatrier parce que c'est risible. Je veux dire, le coût de la vie à Paris, par exemple, est devenu tellement cher que quand on voit que des chercheurs sont payés, je sais pas, 3000 euros par mois, par exemple. c'est vraiment risible par rapport à d'autres pays comme les États -Unis qui là proposent des centaines de millions pour vraiment les tops, pour la crème de la crème. Mais en règle générale, il reste quand même tous mieux payés qu'en Europe. Donc voilà pour cette partie là. Je reviens rapidement sur Google Vo3 parce que personnellement, je m'intéresse beaucoup plus de base. au modèle textuel pur. Mais il est vrai que les modèles deviennent multimodaux et que là, on part sur complètement autre chose, quelque chose de nouveau, très disruptif, qui est la génération de vidéos avec des promptes. Et Google Vo3 a fait le buzz récemment parce qu'on a vu plein de vidéos tournées sur les réseaux sociaux. Et il y en a d'ailleurs encore plein sur TikTok, sur Instagram, qui sont créés par des intelligences artificielles. Et vous avez notamment ces interviews de gens dans la rue, des micro -trottoirs, etc., qui sont 100 % créés par Google Vo3. Vous avez des vidéos avec des bébés qui parlent. Je sais pas si vous avez vu ça, mais c'est assez drôle. En tout cas, ça fait beaucoup de clics, de likes, etc. J'ai pas encore testé malheureusement Google Vo3, mais je vous promets que pour un autre podcast, peut -être le suivant, je vais tester et vous faire mon retour. C'est pas gratuit forcément, quand il y a de la vidéo, c'est beaucoup plus lourd qu'avec du texte, ça demande beaucoup plus de ressources côté serveur de la part des fournisseurs, donc forcément c'est pas gratuit.

D'ailleurs même l'inférence textuelle n'est pas gratuite et vu les millions et les millions de requêtes qu'il y a, forcément il y en a qui commencent à augmenter le prix de leurs abonnements. Je vous avais déjà expliqué notamment que comme les entreprises lèvent énormément d'argent parce que c'est une course, et bien elles crament beaucoup de cash. Elles ne sont pas forcément rentables. Même OpenAI n'est pas forcément rentable et crament beaucoup de cash. Pourquoi ? Parce qu'ils veulent asseoir leur dominance, leur monopole, comme Uber l'a fait avec les taxis. Et du coup maintenant Uber se permet d'augmenter leur prix, de doubler leur prix parce que du coup ils sont très bien établis, ils ont tué la concurrence. Donc profitez que l'IA ne soit pas cher. Alors après ça peut aussi baisser au fur et à mesure parce qu'il y a cet aspect où plus les modèles s'améliorent, plus les modèles existants réduisent leur coût. Mais il ne faut pas hésiter à profiter de toute cette connaissance, toute cette IA qui nous est offerte, notamment gratuitement. Profitez -en. Construisez aussi des produits par -dessus des modèles d'IA, intégrer les modèles. Alors c'est beaucoup plus complexe que ça en a l'air. Je l'ai fait avec mon application My Trainer de coaching personnalisé par IA qui fonctionne de mieux en mieux et qui commence à générer du revenu dont j'en suis assez fier. Si vous voulez vous remettre en forme, vous pouvez checker. Ça s'appelle My Trainer Tout Attaché. J'ai remarqué en créant ce projet il y a plus d'un an que c'était beaucoup plus complexe que ce qu'on pense de simplement créer ce qu'on appelle un GPT Wrapper, c'est -à -dire d'intégrer un modèle d'IA via API ou même en open source. En open source, c'est encore plus dur et via API, ça paraît trivial, mais en fait, ça l'est pas du tout parce qu'il y a beaucoup.

beaucoup de tests à faire, beaucoup d'évaluations et il y a ce qu'on appelle du context engineering. C'était le nouveau terme popularisé par Andrew Carpati, qui est un chercheur historique en IA de OpenAI et Tesla, qui a inventé le terme d'ailleurs vibe coding, qui correspond à coder avec l'intelligence artificielle via du texte. Eh bien, il a inventé le terme context engineering pour expliquer que c'est En fait, un vrai métier d'ingénieur de gérer le contexte des LLM, donc des modèles de langage, parce que le contexte est limité, donc on peut lui passer un nombre d'informations limitées. C'est tout le point aussi des RAGs qui est la génération augmentée de récupération. Eh bien, il faut pouvoir gérer ce contexte et c'est un vrai travail d'ingénieur parce qu'il faut passer suffisamment d'informations pertinentes. sans en fait passer des informations qui ne seraient pas pertinentes. Donc c'est beaucoup plus compliqué de créer un GPT Wrapper que ça on a l'air. Maintenant, si l'intégration se fait proprement, eh bien, il n'y a que des bénéfices parce que le prix des modèles va baisser et les modèles vont s'améliorer. Donc franchement, allez -y, n'hésitez pas à bâtir des GPT Wrapper. Si vous avez besoin de mon expérience, n'hésitez pas à me contacter. Je suis en contact avec beaucoup de gens. J'aide aussi des gens à créer leur application en lien avec l'IA. Je l'ai fait au mois du juillet encore pour une nouvelle application qui, je pense, va cartonner. Donc voilà, ça en est tout pour cet épisode. Il me semble que j'ai fait le tour de mes actualités que j'avais sélectionnées. J'espère que je n'ai rien raté de gros. Evidemment, comme le dernier date de juin, je pense, il y a eu beaucoup, beaucoup de choses. Chaque jour, chaque semaine qui passe, il y a des nouvelles informations et on oublie très vite. Donc, n'hésitez pas à me dire s'il y a des sujets que je n'ai pas traités et que vous voulez que je traite dans un prochain épisode. Je pense que je vais m'atteler aux tests de Google VO3 et je vais vous faire un bilan parce qu'il y a énormément de choses à faire et on peut bâtir énormément de nouvelles entreprises.

Sur ce modèle, on peut disrupter beaucoup, beaucoup de choses sur ce modèle et sur les modèles qui génèrent des vidéos, notamment dans le marketing digital par exemple ou la publicité. Je vous remercie pour votre écoute. C'était Guillaume. Bonnes vacances si vous êtes en vacances ou si vous allez l'être. À une prochaine. Ciao !