Les concurrents de ChatGPT
2 mai 2025
La course à la meilleure intelligence artificielle est lancée à toute vitesse... Après avoir analysé ChatGPT, nous allons découvrir ensemble ses concurrents. Claude, Grok, Mistral, etc, ces noms vous parlent peut-être ? Dans quelle mesure sont-ils meilleurs que ChatGPT ? Comment les utiliser ? Découvrez les enjeux derrière cette course folle et apprenez à vous servir de ces différents outils.
Une question ? Contacte moi : guillaume.gay@protonmail.com
Transcription
Bonjour à tous et bienvenue dans ce deuxième épisode de Génération IA. Merci beaucoup pour vos retours sur le premier épisode. Vraiment, j'ai eu des très bons retours, ça fait chaud au cœur. Bien sûr, quelques petites choses à améliorer. On va essayer de s'améliorer ensemble lors de ces podcasts. Mais franchement, pour un premier épisode, je suis très content. N'hésitez pas évidemment à mettre 5 étoiles si ça vous a plu. et si vous ne l'avez pas encore écouté, je vous conseille d'aller voir le premier. On va essayer de faire quelque chose un peu de chronologique, dans le sens où ce second épisode sera un peu la suite du premier. Notamment, on va revenir sur ChatGPT, sur certains aspects où je me suis rendu compte qu'en fait on n'a pas passé assez de temps dessus, où on les a carrément pas vus. Et puis ensuite, nous allons explorer les concurrents de ChatGPT. qui sont -ils et comment les utiliser, dans quel contexte, pourquoi à certains moments, certains concurrents sont meilleurs. Ça peut être certains cas d'usage, ça peut être la rapidité ou plein d'autres choses. Je pense que cet épisode va être également très riche parce que des concurrents, il y en a pas mal. Comme je l'ai dit dans le premier épisode, c'est un gros marché et franchement, ils se tirent tous la bourre pour... pour avoir une sorte de monopole, notamment sur les intégrations du modèle dans des logiciels existants. On peut intégrer un modèle d'intelligence artificielle dans une application. Donc au lieu d'avoir accès à ce modèle via le chat de chat GPT, eh bien on peut très bien intégrer le modèle par exemple GPT -4O dans une application existante via l'API. Donc l'API, c'est une interface qui permet d'accéder au modèle ou en déployant directement un modèle open source sur son infrastructure. Par exemple, Doctolib a déployé un modèle open source qui est GPT Whisper API. Whisper, c'est un modèle de speech to text. et en fait Doctoly a sorti cette nouvelle feature pour les médecins qui permet de résumer une conversation médicale, une consultation plus précisément et ensuite d'intégrer le résultat de cette consultation directement dans leur base de données en faisant aussi par exemple des recommandations de prescription selon les symptômes et en fait comme c'est une conversation médicale Eh bien, il faut respecter la confidentialité des données. Et donc Doctolib ne pouvait pas utiliser une IA externe via son API, mais a dû déployer son propre modèle sur son infrastructure. Et évidemment, c'est un peu de boulot. Mais voilà pour cet exemple. Comme je l'ai dit, revenons sur Tjadjpt. Il se trouve qu'on a passé... En revue l'interface et les fonctionnalités de ChiaJPT dans l'épisode 1, or, je vous avais dit à la fin de l'épisode que je n'utilisais pas la fonctionnalité projet et que projet était pour regrouper les conversations. Or, je me suis trompé. L'heure est grave, les amis. Incutivement, je pensais que projet que je n'utilisais pas regroupait des conversations, mais pas du tout. En fait, la fonctionnalité projet et tout autre. Donc je me suis créé un projet podcast pour tester. Et en fait, la fonctionnalité projet est comme un chat, mais on peut ajouter des instructions particulières pour orienter le chat GPT, donc comme une sorte de GPT. Mais on peut aussi ajouter des fichiers. Et ça, c'est vraiment un point très important. On peut ajouter des fichiers. Et à chaque fois qu'on commencera une conversation dans ce projet, eh bien, tchat .jpt aura en tête, en mémoire tous les fichiers qu'on aura passés. Et ensuite, on peut également retrouver tous nos chats dans ce projet. On peut aussi supprimer les chats du projet. Mais cette fonctionnalité de retrouver dans des fichiers, en fait, ça s'appelle un RAG. c'est -à -dire une génération augmentée de récupération. Il me semble que c'est ça, l'acronyme. En fait, ce qu'il faut savoir, c'est que le contexte du modèle, le contexte, c'est tout ce qu'on peut lui mettre dans le tchat. Donc on peut par exemple, si le fichier est très court, on peut lui copier -coller le texte. et lui mettre dans le chat directement, puis poser sa question, par exemple résume -moi ce texte. Ça c'est une première façon de passer des fichiers s'ils sont relativement courts, car en fait la taille du contexte est limitée. On peut par exemple copier, coller un texte relativement assez grand, mais au bout d'un moment il sera coupé parce que la taille du contexte est limitée.
Et pour pallier à ce problème, Il y a eu une invention qui est donc la génération augmentée de récupération. Les fichiers sont en quelque sorte compressés et ensuite cette compression va être passée en contexte. En fait, c'est un peu plus compliqué que ça. Les fichiers vont être vectorisés, donc le texte va être transformé en nombre pour prendre moins de place et ensuite on va faire de même pour le texte d'entrée et trouver les similarités. quel nombre se rapproche le plus par rapport aux fichiers. Donc le but c'est pas de rentrer dans des détails techniques mais plus d'expliquer un petit peu le processus et au moins vous saurez ce que c'est un RAG quand on vous en parlera donc R -A -G en anglais c'est retrieved augmented generation et en français génération augmentée de récupération et c'est un peu Ça a été un peu une révolution également puisque grâce au RAG, on peut connecter les modèles à des grandes bases de données. Pour des entreprises existantes, imaginez par exemple une entreprise dans le juridique qui a tout un tas de dossiers clients. C'est très utile pour un avocat ou pour un juriste de pouvoir questionner tous ces dossiers clients et de pouvoir retrouver tous ces fichiers. puisque si notre chasse GPT n'est pas connecté à notre base de données, c'est un peu flou au final, c'est un peu des généralités. Et pour certains cas d'usage, on a besoin vraiment de rentrer dans les détails et d'être assez précis. Donc les rags, c'est la solution pour tout un tas de problèmes comme ceci. Voilà pour les projets. La prochaine fois, je regarderai avant... de faire des suppositions. Mais voilà, et puis également, je voulais revenir sur Sora. Sora, c'est en fait la génération de vidéos par TchadGPT. Et on le voit sur le panneau gauche de l'interface. Alors Sora, ça a fait beaucoup de bruit il y a des mois quand c'est sorti, parce que, en fait, Sam Altman et OpenAI ont diffusé sur X des vidéos. généré par Sora et c'est vrai que c'était vraiment très impressionnant notamment et on pouvait demander tout un tas de choses même par exemple une vue de drone donc on peut voir comme une vue de drone qui se rapproche du sol etc toutes ces vidéos ont été assez bluffantes de détails et de techniques également cependant depuis lors On a un peu moins entendu parler de Sora, en tous les cas, ça n'a pas fait le buzz. Je pense que c'est réservé aux utilisateurs de chat GPT +, donc payant. Et les vidéos, c'est vraiment un gros point de liage génératif, parce qu'il y a énormément de cas d'usage vidéo. Et je pense que Hollywood a un peu tremblé quand ils ont vu Sora apparaître. puisqu'en fait il devient imaginable envisageable de créer des films 100 % grâce à l'intelligence artificielle en commençant bien sûr par des courts métrages puis plusieurs courts métrages mi bout à bouffe se faisant un long métrage avec plusieurs scènes et oui donc c'est assez révolutionnaire également la génération vidéo Et les cas d'usage, je pense aussi aux réseaux sociaux au format court, donc les shorts, les reels ou TikTok. On voit de plus en plus de vidéos créées par l'intelligence artificielle, parfois très mal fait d'ailleurs, avec cette voix off de robots un petit peu, parfois mieux fait. En tout cas, il y en a qui tombent dans le panneau et parfois c'est utile, disons -le. La plupart du temps, pour l'instant, c'est assez raté. Mais ça génère du trafic et les gens en fait peuvent créer ce genre de vidéos très rapidement. Le processus de création de contenu devient beaucoup plus rapide et fluide. N'importe qui peut le faire. Forcément, ça crée beaucoup plus de contenu. Pour l'instant, la plupart sont pas très bons, mais ça a tendance à augmenter et c'est un énorme business cette génération de vidéos puisque les réseaux sociaux, c'est là où il y a l'attention de beaucoup de personnes. et c'est devenu extrêmement important pour vendre. Et enfin, il y a une dernière fonctionnalité de ChaGPT dont je n'ai pas parlé et qui s'appelle les tâches. Et les tâches, c'est vraiment extrêmement puissant également. En fait, ils ont rajouté ce qu'on appelle des cron jobs. Vous pouvez configurer un programme sur votre ordinateur, par exemple, qui va se lancer à une certaine heure tous les jours. ou tous les deux jours mais en tout cas une tâche qui est répétitive et ils ont intégré ces tâches répétitives dans ChatGPT de telle sorte que par exemple je vais configurer une tâche à midi tous les jours et ensuite ça va automatiquement déclencher un chat dans ChatGPT et m'envoyer le résultat donc j'ai configuré une tâche qui est de m'envoyer un résumé des actualités d'IA tous les jours, avec notamment des anecdotes surprenantes. Voilà.
Comme ça, je pourrais vous les donner. Et j'ai fait ça hier. Et ma tâche est planifiée, donc je vais recevoir une newsletter de toutes les actualités d'IA tous les jours. Honnêtement, c'est très puissant. Les cas d'usage, je pensais justement à... J'ai pensé tout de suite à l'actualité. recevoir une newsletter personnalisée. On peut aussi en profiter pour envoyer cette newsletter. Donc si vous créez une newsletter, vous pouvez très bien planifier une tâche qui va vous faire se résumer. Ensuite, vous n'aurez plus qu'à l'envoyer. Donc en fait, le relire, le peaufiner éventuellement et l'envoyer. C'est devenu extrêmement puissant. Et vous pouvez même, je pense à des outils comme Zapier. Zapier, ça permet de configurer des workflows. Donc on peut déjà, dans Zapier, configurer des tâches répétitives sans passer par ChiaJPT. Et donc, par exemple, tous les jours, lancer une génération dans ChiaJPT sur Zapier, qui va vous trouver toutes les actualités d'IA. Et ensuite, vous pouvez automatiquement configurer l'envoi par mail dans Zapier. Donc on peut carrément tout automatiser ce processus de newsletter dans Zapier. C'est un outil assez intuitif. Il y en a d'autres, notamment il y en a un qui s'appelle Make, que je n'ai jamais utilisé. Mais j'ai déjà utilisé Zapier et quand on n'a jamais codé, c'est très utile pour faire des workflows qui s'exécutent automatiquement. Après, attention au niveau du pricing, ça peut vite dépasser les quotas gratuits. Donc c'est un peu comme tous ces outils très utiles, mais attention au pricing. Si vous avez des exemples de tâches, eh bien, faites -moi savoir les tâches que vous utilisez dans votre quotidien. Si jamais vous en utilisez, je reviendrai dessus plus tard et on pourra voir les meilleurs cas d'usage ensemble. Donc voilà pour les dernières fonctionnalités de ChatGPT que je n'ai pas passées en revue dans l'épisode 1. Et désormais, on va pouvoir enfin voir les concurrents de ChatGPT et comment les utiliser. Comme je vous le disais dans l'introduction, il y a pas mal de concurrents, mais on va seulement voir les meilleurs parce que bon, il y en a qui ont un peu raté également. On va prendre un exemple. Le concurrent numéro un, on va dire un concurrent très important.
Il y en a plusieurs qui sont dans le top, mais je pense à Claude, qui est le modèle de Anthropic. Anthropic, c'est un concurrent de OpenAI qui a été créé par un un scientifique qui s'appelle Dario Amodei donc je sais pas exactement comment on prononce mais j'ai eu la chance d'assister à une session de questions -réponses avec lui à station F à Paris et ce mec est assez hallucinant c'est un scientifique un peu neuroscientifique on va dire dans le sens où il s'est intéressé plutôt à la biologie du cerveau au départ il me semble que c'est pas forcément un informaticien de base, je peux me tromper, mais que j'ai en tête. Son profil est vraiment intéressant. Et franchement, ce que fait Claude, c'est hyper intéressant. Déjà, pour commencer, Claude a fait un partenariat avec Amazon parce que vous savez que toutes ces entreprises d'IA ont besoin de beaucoup de serveurs et de ressources. Et donc Amazon a notamment AWS, Amazon Web Services, et met à disposition ses services à Anthropic pour ces modèles. pour les héberger et pour qu'ils soient accessibles via API notamment et même dans le chat. Alors que OpenAI a fait un partenariat eux avec Microsoft, avec Microsoft et Microsoft Azure qui est en gros la partie de Microsoft qui gère toute la partie serveur. Donc il y a un peu cette concurrence sous -jacente Microsoft Amazon à travers OpenAI Anthropic. C'est assez intéressant de voir que les gros hébergeurs, ils ont un peu leur entreprise d'IA dans leur sphère. Il faut avoir ça en tête. C'est un peu la course entre elles. En tropique, c'est pour moi en fait les meilleurs modèles pour deux choses, coder et écrire. Donc notamment en fait le mode écriture pour commencer. Le mode écriture est vraiment cool parce qu'on peut créer un style d'écriture. Il se trouve que c'est pas vraiment mes cas d'usage à moi parce que je fais pas beaucoup de copyrighting ou de contenu écrit, mais on peut configurer des styles d'écriture et on peut vraiment les orienter, que ce soit concis, que ce soit explicatif, formel.
et on peut lui dire pourquoi en fait on configure. Donc ça peut être par exemple un email, un article de blog, et on peut lui donner des exemples de telle sorte qu'on peut créer notre style d'écriture. Donc si vous avez un blog, si vous créez du contenu sur LinkedIn, si vous faites des contenus écrits, et bien utilisez Claude de Anthropic. Vous pouvez tester dans le chat tous ces modes d'écriture et franchement ils sont au top. Si vous configurez bien votre modèle d'écriture, vous verrez que votre contenu va être hyper qualitatif. J'aime beaucoup cette anecdote de Usama Ammar qui raconte dans un podcast qu'il écrit en fait tous ses contenus LinkedIn avec Claude depuis des mois et ça passe crème dans le sens où personne lui dit en gros qu'il a créé son contenu avec l'IA parce que ça a l'air hyper authentique. Et effectivement, il a très bien configuré son modèle Claude pour lui faire du contenu avec des exemples concrets d'anciens posts à lui, afin de créer le nouveau avec le même style. Et la seule fois où il a voulu écrire un article lui -même sans passer par Claude, après des mois avant d'écrire ses articles avec Claude, en fait c'est le seul article où les gens lui ont dit, ouais ton contenu c'est de l'IA, ça se voit, etc. donc il devait avoir un peu les boules parce que la seule fois où il a écrit lui -même et bien c'est la seule fois où les gens lui ont reproché que c'était une IA donc il faudrait voir quel poste c'était d'ailleurs mais Claude marche très très bien pour l'écriture et pour le code et bien n'en parlons pas franchement Claude 3 .5 sonnette comme modèle ça a été vraiment une révolution au niveau du code ça a été un peu une bascule puisque à partir de ce moment -là, en fait, on pouvait coder de façon très fluide avec l'intelligence artificielle, alors qu'avant, il y avait quand même beaucoup d'erreurs, beaucoup de digressions. Mais en fait, maintenant, il faut savoir qu'en codant, on a des environnements de développement qui sont intégrés avec des modèles, et on peut directement demander dans l'environnement de développement de nous créer du code en choisissant quel modèle on utilise. Donc on peut avoir le choix, on peut choisir GPT, Claude, etc. Et depuis qu'il y avait Claude 3 .5, eh bien c'est là où je vous disais que j'écrivais beaucoup moins de code moi -même puisque c'est à partir de là où le code était suffisamment bon pour remplacer un développeur entre junior et senior, on va dire un développeur moyen. Pour écrire du code c'est très puissant, depuis ils ont encore sorti d'autres modèles comme Claude 3 .7, Sonnet, et il y en a un autre qui est plus rapide pour les tâches quotidiennes ils n'ont pas 36 modèles, l'autre c'est assez clair honnêtement et ils sont assez bien nommés parce que les modèles de OpenAI sont un peu nommés n'importe comment dans le sens où un coup vous avez un qui s'appelle O3 un coup vous avez un qui s'appelle O1 O1 mini il n'y a pas forcément d'ordre en fait par exemple là ils ont sorti GPT 4 .1 alors qu'il y a déjà un 4 .5 qui existe, donc il n'y a pas forcément d'ordre croissant dans le nommage des modèles, ce qui fait qu'à la fin c'est vraiment le bazar. Et c'est justement le CEO de Claude, donc Dario Amodei, qui a dit que fin 2025, il y aura quasiment plus de codes écrits par les humains. Voilà pour Claude, honnêtement, après l'interface de Claude est très similaire à chat GPT, donc je ne vais pas du tout passer en revue tout ça. Mais essayez juste pour les cas d'usage que je vous ai dit, écriture et code, vous pouvez tester Claude, vous n'allez pas être déçu. Pour le reste, on peut se cantonner Hatchat GPT, c'est très bien. Parce qu'après, vous savez, quand on commence à utiliser plusieurs modèles différents, il faut un abonnement sur chaque. Et ça devient assez lourd d'avoir un abonnement sur chaque modèle. En fait, je crois que j'avais vu qu'il y avait des entreprises qui avaient créé des interfaces où on pouvait s'abonner seulement une fois à cette entreprise.
et utiliser n'importe quel modèle dans le tchat. Mais moi, j'ai pas vraiment envie d'utiliser ça, parce que chaque interface est vraiment optimisée par rapport à chaque entreprise et chaque modèle. Par exemple, dans tchat GPT, comme j'ai dit, vous avez les tâches, les GPT, etc. Et ça, on l'a que dans l'interface de tchat GPT. Si on peut changer de modèle, bah un code ne fait pas des GPT. Donc... je préfère utiliser vraiment l'interface de l'entreprise qui a créé le modèle puisque c'est une interface qui est optimisée dans l'utilisation de ce modèle. Mais en tout cas ce concept de créer une interface pour pouvoir changer de modèle et avoir un seul abonnement, je la trouve intéressante. C'est un peu le même concept que par exemple avoir un seul abonnement et vous avez Netflix, Amazon Prime, Disney Plus, etc. Ça pourrait marcher mais après il y a pas mal de problèmes. Est -ce que vous avez le droit de faire ça ? Il doit y avoir pas mal de problèmes juridiques. Je crois qu'il y avait une startup en France qui faisait ça, où on pouvait s'abonner et avoir accès à plusieurs fournisseurs de vidéos. Mais il me semble que c'était dans la limite de la légalité. Et qu'ils allaient se taper un procès par Netflix, donc bon courage à eux. Revenons sur nos modèles. Le deuxième qu'on va voir ensemble, c'est le modèle de Google.
Google qui est quand même un poids lourd dans la tech. Et Google, c'est eux qui ont créé les Transformers qui sont à la base de la révolution de l'IA générative. Donc c'est eux qui ont créé ce papier de recherche sur les Transformers qui a permis l'IA générative. Et pourtant, c'est pas du tout eux qui ont révolutionné le milieu, puisque qui ont exploité en fait ce papier. C'est OpenAI. qui ont pris l'avantage. Mais Google, ils ont sabordé leur avantage concurrentiel totalement, alors que sur le papier, ils avaient tout. Ils ont inventé la technologie. Ils ont un budget illimité. Ils ont les meilleurs chercheurs et les meilleurs ingénieurs. Et pourtant, ils ont raté ça. Comme quoi, parfois, les logiques d'entreprises font qu'en fait, vous avez de la friction. Et en fait vous pouvez totalement, par exemple en ayant beaucoup trop de réunions, en voulant prouver des choses, en fait tous les modèles d'organisation humaine avec le management peut être un frein à l'innovation. Et vous pouvez avoir des startups avec très peu de gens au début qui disruptent totalement un acteur majeur, alors que sur le papier en fait ça n'a aucun sens. L'acteur majeur a tout pour réussir. Mais en entreprise, vous avez des logiques d'égo, vous avez des logiques humaines, des frictions qui font que parfois ça ne fonctionne pas. Et j'ai l'impression que c'est un peu ce qui se passe à Google qui avait tout pour réussir et qui ont vraiment foiré. Mais depuis, ils se sont un petit peu rattrapés. Et en fait, quand HGPT est sorti, évidemment, ils avaient tout. Donc ils se sont dit, on va faire notre modèle également, puisqu'on est destinés à ça. On a les ressources, on a les serveurs. On a l'argent, on a les développeurs. Et ce qui est assez fascinant, c'est que vous avez un des fondateurs, qui est Sergey Brin, je crois, qui s'est lui -même remis à coder pour créer les modèles de Google Gemini, ou Gemini en français. Vous le prononcez comme vous voulez. Mais le mec s'est remis à coder. On pouvait voir sur GitHub, donc c'est le gestionnaire de code open source que Sergey Brin commençait à avoir une activité. tous les jours, à des heures, la nuit, le jour. Le fondateur de Google, qui est multimilliardaire, s'est littéralement remis à côté en panique pour pouvoir rattraper OpenAI.
Donc c'est assez fascinant de voir ça. Et depuis, bon, ils ont fait beaucoup de pubs. C'est, je crois, les seuls que j'ai vus à la télé à faire la pub de leur modèle Gemini à la télé française. Donc j'imagine également aux États -Unis et dans d'autres pays. Franchement, je suis pas sûr que la pub télévisée soit la meilleure pour faire la pub de modèle d'IA, bien que c'est vrai que OpenAI, ils ont fait une pub au Super Bowl aux Etats -Unis, qui était vraiment, d'ailleurs, moi j'ai beaucoup, beaucoup aimé. Je l'ai trouvé hyper, hyper intéressante. Ils ont retracé l'histoire de l'humanité en 30 secondes, avec vraiment des visuels qui ressemblent à tchadjpt, donc noir et blanc, etc. Je vous invite à regarder cette pub d'OpenAI qui est passée au Super Bowl. Je ne pense pas que ce soit la pub qui ait fait le plus de taux de conversion. Ce n'est pas une pub qui était orientée vente, mais plutôt une pub qui est orientée image de marque, un peu comme les pubs Apple. La pub Apple d'ailleurs qui avait fait également au Super Bowl contre IBM, qui est la plus grande publicité de l'histoire en fait, qui est reconnue comme telle. Je vous invite également à la voir. C'est un peu pareil, c'était une pub vraiment qui décrit l'image de marque, l'identité d'Apple. Et on voit que OpenAI se sont inspirés de ça, même si c'est pas vraiment le même scénario du tout. Mais franchement, elle est très réussie. Mais revenons sur Gemini, qui eux ont fait des pubs très pratiques dans le sens où voici Notria, voici ce qu'elle fait, des cas d'usage concrets, où vous aviez une personne qui disait d'accord, Gemini, dis -moi ça, fais -moi ceci. Donc ils en ont pas mal fait la pub pour rattraper leur retard. Ils l'ont intégré dans certains outils à eux comme Firebase, qui est leur gestionnaire de base de données en ligne. Ils ont la distribution, c'est un peu comme Microsoft avec Microsoft Co -Pilot, dans le sens où Microsoft a Microsoft Teams, Outlook pour les emails. et puis évidemment le stockage, les serveurs. Microsoft, ils ont pu distribuer facilement leur Microsoft Copilot à tout le monde, même si c'était pas forcément le meilleur outil de base, parce qu'ils avaient les canaux de distribution. Google, c'est pareil. Ils ont les recherches. Ils ont Google Chrome, leur navigateur. Ils ont Google Cloud Server avec Google Cloud Console, Firebase. Donc ils peuvent distribuer Gemini. Ils ont Android aussi, qui appartient à Google. Ils ont les Google Phone, Google Pixel, etc. Donc bref, ils ont plein de canaux de distribution, contrairement par exemple à Anthropic ou OpenAI. Bien que maintenant, OpenAI, les modèles GPT ont été intégrés dans les iPhones pour Apple Intelligence, qui n'est toujours pas sorti en Europe je crois. peut -être sur les iPhone 16 mais en tout cas il y avait des régulations européennes comme quoi en fait c'était impossible de sortir la fonctionnalité Apple Intelligence en Europe et moi je l'attends avec impatience quand même c'est assez surprenant que Apple ait choisi OpenAI et ne fait pas leur propre modèle contrairement à Google alors qu'Apple avait également les moyens de le faire mais ils sont passés par OpenAI et étant donné qu'OpenAI a un partenariat avec Microsoft qui est l'ennemi d'Apple Ça a été très surprenant qu'Apple choisisse OpenAI. S'il n'y avait pas ce partenariat avec Microsoft, ça m'aurait beaucoup moins surpris parce qu'ils ont quand même la même image de marque, des entreprises très disruptives, très design et avec une belle forte image de marque. Mais après, Apple a déployé les modèles d'OpenAI directement dans leurs smartphones afin que les IA run en local et non pas via le cloud de Microsoft. parce qu'il y aurait des gros problèmes de confidentialité et de sécurité. Et on sait qu'Apple est quand même très à cheval sur la confidentialité des données de ses utilisateurs. Et c'est tant mieux. Et du coup, ils ont carrément travaillé à OpenAI pour déployer leur modèle dans les iPhones. Et j'imagine que Google a pu faire de même avec Gemini dans les Google Phones. Il paraît que c'est pas mal, je crois qu'il y a des fonctionnalités d'IA assez sympas sur les téléphones Android.
J'en ai pas, moi j'ai un iPhone, donc j'ai pas tester en détail. Mais on pourrait voir ça dans un prochain épisode éventuellement si c'est un sujet intéressant. Mais revenons sur Gemini donc Gemini. Les modèles Gemini honnêtement, via le chat c'est un peu nul. Utiliser de chat GPT largement. Après ça peut être utile dans certains cas déjà quand ils ont sorti Gemini ils ont fait scandale parce que leur IA était très woke. Et vous savez qu'aux Etats -Unis, il y a un énorme débat sur le walkisme. Et notamment, Gemini, il y a eu un gros problème, c'est que quand tu demandais qui étaient les pères fondateurs des Etats -Unis, donc ils étaient quatre, et en fait, ils les représentaient en tant que présidents noirs. Donc, ce qui est historiquement faux, ils n'étaient pas noirs, mais Gemini les représentait comme tels. et il y a des conservateurs qui se sont emparés du sujet qui ont dit voilà votre IA il est walk ça a un peu fait un flop parce que c'est quand même une contre vérité historique donc le modèle a sorti des contre vérités des hallucinations on pourrait dire mais depuis ils ont bien corrigé le tir le RIA elle est devenue très puissante honnêtement et elle performe super bien sur tous les benchmarks donc c'est à dire les benchmarks c'est des tests Les benchmarks sont créés à partir de, par exemple, vous avez des questions créées par des humains et on attend une certaine réponse à ces questions. Si le modèle réussit à fournir ses réponses, eh bien, il gagne un point. Sinon, il gagne zéro point. Et à la fin, on compte les points. Pour vulgariser, c'est un peu plus compliqué, mais les benchmarks sont créés par des humains et on teste les modèles pour voir leur performance sur ces benchmarks. c'est bien sûr à prendre avec des pincettes parce que du coup, tous ces modèles, ils vont être entraînés pour être performants sur ces benchmarks. Mais si vous posez une question qui n'est pas dedans, ça se trouve le modèle serait nul alors qu'il a été performant sur les benchmarks ou vice versa. Parfois, il y a des modèles moins performants sur les benchmarks, mais qui marchent bien dans d'autres cas d'usage. Donc, il y a tout un débat. Tout ce qui est benchmark, c'est pas parfait pour estimer la qualité d'un modèle. mais c'est tout ce qu'on a, on n'a pas d'autre moyen de le faire donc Gemini était très performant sur ces benchmarks récemment, ils ont beaucoup beaucoup beaucoup fait de progrès et notamment ils ont fait le buzz parce que ils ont étendu leur contexte, leur fenêtre de contexte, leur modèle à plus d'un million de tokens c'est à dire qu'on peut mettre plus d'un million de mots dans le chat c'est -à -dire qu'on peut utiliser leur modèle avec des contextes très grands et dans certains cas particuliers, c'est hyper utile, on n'a pas besoin de compresser des fichiers pour faire un rag, on peut directement utiliser le contexte. Là -dessus, ils ont été très forts et je pense que c'est grâce notamment à leur pôle de recherche qu'ils ont pu étendre leurs fenêtres de contexte, un peu comme l'invention des Transformers où là... Ils étaient avant -gardistes et cette fois -ci, ils ont intégré directement cette innovation dans leurs modèles. Ils se sont pas fait avoir comme la première fois. Maintenant, via l'API, ça peut être très intéressant d'utiliser Gemini, mais via le chat, leur interface, elle n'est pas top. Toutes les interfaces de Google en général, si vous faites des pubs dans Google, c'est un peu le bazar. Si vous utilisez Google pour même la documentation des modèles après, bon. J'utilise Safari comme navigateur, donc c'est pas du tout optimisé pour Safari. Je pense que c'est peut -être fait exprès pour qu'en gros on prenne Google Chrome. C'est dommage. Ça peut être intéressant dans certains cas d'usage avec des grands contextes, mais sinon, qu'en tenez -vous à Thierry JPT ? Je vais quand même suivre de près l'avancée de Gemini parce qu'il rattrape vraiment le retard en termes de performance. Félicitations à eux, ils font vraiment du bon boulot récemment. Et c'est vraiment là qu'on voit que la concurrence, c'est quand même hyper important pour le progrès et l'innovation. S'il n'y avait jamais eu de chat GPT, peut -être que Google n'aurait jamais fait Gemini. Parce que là, ils rattrapent leur retard. Et Gemini est ultra puissant, donc. La concurrence tire tout le monde vers le haut. Il y a une sorte d'émulsion en ce moment dans le milieu de l'IA générative. Et c'est vraiment top que tous les mois, toutes les semaines, il y a des nouveaux modèles qui sortent, des nouvelles innovations.
Parfois ça réussit, parfois ça ne réussit pas, mais ça tire tout le monde vers le haut. Et ça, c'est vraiment simple pour les utilisateurs d'avoir autant d'acteurs. Ensuite, passons au modèle suivant et à l'entreprise suivante qui me tient particulièrement à cœur puisqu'ils sont français. C'est Mistral, Mistral AI. qui est une entreprise qui a été créée par trois polytechniciens donc des mecs hyper talentueux qui a pour CEO Arthur Mensch qui est un CEO assez talentueux mais il faut pas oublier les deux autres alors je connais pas leur nom par coeur je crois qu'il y en a un qui s'appelle Guillaume d'ailleurs et qui sont hyper techniques et qui ont le rôle de CTO les deux autres c'est vraiment ceux qui font toute la recherche et qui sont très bons techniquement Et vous avez Arthur Mensch, qui est également bon techniquement, puisqu'il est un polytechnicien, mais qui a plus pris le côté CEO, sales, et qui est vraiment le visage de l'entreprise, qui fait des radios, qui fait des télés et des interviews. Mistral sont concentrés au début pour faire des modèles open source. C'est un peu les premiers avec Meta à avoir fait des modèles open source. et donc ils ont permis à toute une communauté de développeurs open source d'intégrer ces modèles dans leurs infrastructures et de les utiliser, et notamment de les utiliser en mode hors ligne avec des outils comme Olama, qui permettent de télécharger des modèles sur son PC. Et moi, j'ai téléchargé par exemple un modèle de Mistral que je peux utiliser dans l'avion. Je peux utiliser, alors que je ne peux jamais utiliser ChatGBT dans l'avion, je n'ai pas de connexion. mais je peux utiliser dans mon terminal des modèles open source comme Mistral ou Lama donc c'est assez sympa après voilà honnêtement dans la vie du quotidien c'est vraiment très rare que j'utilise des modèles open source en local maintenant je sais qu'il ya une grosse communauté de l'open source qui aime beaucoup ça et franchement il ya des raisons parce que c'est assez fascinant de faire du développement open source Franchement, c'est une sorte de philanthropie. On met à disposition à tout le monde son travail et tout le monde peut utiliser gratuitement en quelque sorte votre travail. Ça permet vraiment de progresser très rapidement. C'est un peu l'open source qui permet à tout le monde de progresser. Et je sais qu'en France, on a un pays où on est très défenseurs de l'open source. C'est peut -être le côté social de la France de partager ces modèles. Mais Mistral en a fait partie. Vous avez également l'entreprise Hugging Face qui est plus sur l'hébergement de modèles, mais qui est une top entreprise de l'intelligence artificielle et qui a été également fondée par des français et que je salue. C'est une très belle boîte, Hugging Face. Et vous avez également des gens qui travaillent dans des grandes entreprises d'IA comme Yann Lequin, qui est le vice -président de Meta. l'entreprise qui gère Facebook, Instagram et Yann Lequin qui est à la tête du pôle intelligence artificielle de Meta qui est, je crois, le chercheur en IA le plus connu ou l'un des plus connus au monde et l'un des plus émérite. Et bien, Yann Lequin est également un défenseur de l'open source et c'est pour cela que Meta a mis ses modèles en open source. Nous, en France, on aime bien les modèles open source. Mistral représente très bien ce schéma de pensée et ils sont assez forts. Honnêtement, leurs modèles sont très bien. cependant j'ai l'impression que ça fait quand même plusieurs mois où ils ont pas sorti vraiment de modèles game changer contrairement à avant où ils étaient dans le top 10 où ils avaient je crois deux ou trois modèles dans le top 10 en termes de performance donc vraiment en termes de résultats de qualité mais là ça fait plusieurs mois où ils ont pas vraiment sorti de très très bons modèles en termes de qualité en revanche ils se sont pas mal concentrés sur la rapidité Je sais pas si vous avez déjà testé l'application Mistral, je vous conseille de la télécharger, elle était top 1 productivité à un moment quand elle est sortie. Mais au niveau de la rapidité d'inférence, c'est assez impressionnant. Vous posez une question et là, bam, le truc qui vous répond, mais même pas 100 millisecondes, je sais pas, franchement, c'est très très rapide. Donc c'est ce qu'on appelle l'inférence. C'est le temps de réponse, mais c'est limite trop rapide en fait. En fait, je sais pas si ils ont voulu être hyper rapide. Alors pour tout ce qui est API et cas d'utilisation en entreprise et automatisation, c'est génial que ce soit hyper rapide. Par contre, en termes de tchat, en fait, par exemple, quand tchat .jpt vous répond, c'est un peu du streaming, c'est à dire que vous allez voir les mots apparaître 1 à 1 dans le tchat. En gros, le résultat se construit. et lorsqu'il se construit vous pouvez commencer à lire la première phrase alors que la dernière phrase n'a toujours pas été générée donc l'utilisateur ne perd pas de temps parce qu'il se met déjà à lire au final ça pose pas énormément de problèmes si le temps de réponse est un tout petit peu long alors que dans Mistral ça va tellement vite que vous avez pas le temps en fait de lire les mots qui apparaissent et donc vous avez pas votre gros gros bloc qui apparaît votre gros pavé donc je sais pas honnêtement si c'est si utile en tout cas moi personnellement je n'ai pas vraiment accroché je trouve ça cool que ce soit quand même hyper rapide mais en termes de cas d'utilisation des fois je commence à lire et en fait ça va tellement vite que j'arrive pas donc je dois reprendre tout bloc certainement que s'ils ont fait ça c'est que dans leur cas d'usage les entreprises avec lesquelles ils collaborent etc avait certainement besoin de rapidité et c'est top ils sont très forts maintenant ce serait pas mal qu'ils puissent rattraper un peu le retard qu'ils ont pris ces derniers mois sur les meilleurs modèles de code de Anthropic, pardon, OpenAI et Google afin qu'ils se restituent dans les top top modèles. Après voilà, je vais me renseigner quand même sur Mistral parce que ça fait un petit moment que j'ai pas regardé leur modèle. Grande fierté française quand même d'avoir cette entreprise qui a réussi à disrupter OpenAI, qui a mis en difficulté OpenAI. et qui avec des ressources mais mille fois moindre même si maintenant ils ont levé des centaines de millions. Il faut savoir que Mistral avait des ressources largement moindres et ils ont quand même réussi à faire de très très belles choses comme quoi par exemple c'est pas forcément le montant d'argent disponible qui permet de faire les meilleures choses on l'a vu avec Google qui a raté ce virage et on l'a vu également avec DeepSeek le chinois qui lui aussi est un modèle open source et qui ont vraiment, vraiment fait beaucoup de bruit DeepSeek parce qu'ils ont sorti leur modèle open source et ils avaient des meilleures performances que CHJPT. DeepSeek, ils ont carrément créé une nouvelle architecture. Ils ont sorti leur modèle récemment. Pareil, c'est des chercheurs chinois qui n'avaient pas énormément de ressources.
Alors, il y en a qui ont dit qu'en fait, le parti commun chinois, les entreprises leur avaient donné beaucoup de ressources. Mais qu'en gros, ils font genre, non, non, on est juste des petits chercheurs indépendants. Maintenant, je crois que ça a été un peu démenti. C'est vraiment, ils ont vraiment pas eu beaucoup de ressources. C'est plutôt les entreprises comme Alibaba qui vont sortir leur modèle, qui les ont déjà sorti et qui sont assez puissants d'ailleurs, qui eux, ont beaucoup de ressources. Mais DeepSec, eux, leur particularité, c'est qu'ils avaient une sorte de nouvelle architecture et ils étaient très forts. Ils avaient des résultats incroyables. Mais le truc, c'est qu'ils étaient bridés. Ils étaient bridés parce que quand tu leur posais des questions politiques un peu sensibles, et notamment dès que ça touchait aux partis communistes chinois, ils appliquaient des filtres. Et c'était assez flagrant parce qu'en gros, ils commença à générer une réponse. Il y avait un filtre, mais un filtre post -inférant, son truc qui met. C'est -à -dire qu'ils appliquaient ce filtre après la réponse, donc ils commença à générer une réponse. et d'un coup paf ça changeait totalement il disait non non je ne peux pas répondre à cette question ce n'est pas dans mes sphères de connaissances donc c'était assez flagrant les filtres et je vous avoue que c'est assez gênant bah vous n'avez pas envie de parler à une IA qui est totalement filtrée en fait vous avez juste envie qu'elle soit plutôt sincère plutôt authentique et qu'elle vous dise des choses qui se rapprochent des faits et de la vérité et à partir du moment où c'est filtré bah j'ai juste testé Deep Seek mais je suis pas vraiment rentré dans le train Deep Seek par contre Il faut remercier DeepSec parce que c'est grâce à eux que des entreprises comme OpenAI ont baissé le coût de leurs modèles.
Puisque comme il y avait cette IA open source chinoise qu'on pouvait déployer sur nos propres serveurs, qui était gratuite car open source et qui était très puissante et performante, OpenAI s'est dit qu'on va baisser le coût de nos modèles parce que les gens sinon vont faire le switch et ils vont passer sur DeepSec. au lieu de continuer d'utiliser nos modèles GPT. DeepSec a permis de baisser le coût des modèles d'IA. Merci à eux honnêtement, puisque moi j'utilise pas mal de modèles d'IA dans mes applications. Et le coût de l'IA en fait, c'est vraiment un problème. C'est un problème et c'est un problème sur certains usages. Après il aura tendance à baisser, donc c'est toujours intéressant de construire par -dessus ces modèles. puisque dans le futur, on va augmenter nos marges. Donc merci Adipseek pour ça. Ensuite, on va voir honnêtement, il n'en reste plus beaucoup dans la liste. Il y a le Lama de Facebook et Meta. L'Yama, c'est un peu l'équivalent de Mistral. Il était open source, assez performant. Et maintenant, d'ailleurs, Meta vient de sortir son application Meta AI. Et ils ont commencé à faire une sorte de réseau social dessus. J'ai vu Mark Zuckerberg qui en parlait sur Instagram. On va voir ce que ça va donner. Meta AI, mais honnêtement, Meta, ils sont très forts. Moi, je trouve Mark Zuckerberg, il est très, très fort. Et franchement, ce qu'ils font avec Instagram, par exemple, c'est impressionnant. C'est vraiment une application incroyable et qui fonctionne super bien. Ils concurrents TikTok avec leur réel. Ils sont très forts au niveau de leur feature. Ils en font pas trop non plus. Et pareil pour WhatsApp. Je trouve que WhatsApp, ils font beaucoup de progrès. WhatsApp, c'est une messagerie qui est beaucoup utilisée par les gens en dehors des États -Unis. Si vous utilisez WhatsApp aux États -Unis, c'est un peu mal vu, ça a un peu une mauvaise image. Et en gros, c'est que vous êtes un immigré, quoi, et que vous voulez communiquer avec votre famille à l'étranger qui, eux, utilisent WhatsApp.
WhatsApp marche beaucoup en dehors des États -Unis, c'est marrant. Que vous ayez ces nices -là qui se créent. Mais WhatsApp, oui, c'est très fort, très utilisé, le mode vocal pour communiquer. Et là ils ont sorti Meta AI donc on va voir ce que ça va donner. On n'a pas beaucoup de recul par rapport à ça pour l'instant honnêtement. Donc vous pouvez l'intercharger et tester. Je vais peut -être le faire si j'ai le temps. Mais voilà, ils ont aussi intégré, j'ai vu de l'IA un peu sur Instagram. Vous pouvez poser une question mais moi j'aime pas trop ça. Je trouve que c'est pas vraiment approprié de poser des questions à une IA sur Instagram dans vos messages privés. Mes messages privés c'est plus pour communiquer avec mes amis. Et c'est un peu comme Snapchat, ils ont fait Snapchat, IA, où vous pouvez poser des questions mais franchement je vois pas trop l'intérêt par rapport à un chat GPT. Peut -être pour les gens qui utilisent vraiment beaucoup Snapchat et qui veulent tout centraliser. Pareil, vous avez XAI qui est l'entreprise d'Elon Musk. C'est assez intéressant de voir XAI parce que Elon Musk on a dit dans l'épisode 1 qu'il avait participé à la création de OpenAI. Elon Musk, il voulait créer OpenAI open source parce que lui, il pense que c'est vraiment un grand danger d'intelligence artificielle. Et la mission de OpenIA, c'était de faire des modèles open source sécurisés qui bénéficient à toute l'humanité.
Vous savez, il a un peu cette vision. Faut que j'emmène l'humanité sur Mars. Et bien, c'était pareil pour les modèles open source. Il faut qu'ils bénéficient à l'humanité. Donc on va créer OpenAI. Or, comme je vous l'ai dit dans l'épisode 1, ça a un peu dérapé et il a créé XAI, qui est donc sa propre entreprise d'intelligence artificielle générative et qui fait des modèles qui s'appellent GROK, G -R -O -K, qui sont très puissants. Elon Musk, c'est vraiment un mec quand il fait une entreprise en général. Tesla, SpaceX, il fait des trucs vraiment pas mal, donc à ne surtout pas sous -estimer. Ce qui est marrant, c'est qu'ils ont créé un énorme data center aux Etats -Unis. Pour ce data center, ils avaient besoin de cartes graphiques de Nvidia pour entraîner leur modèle. Nvidia, c'est vraiment le leader dans les cartes graphiques pour générer de la puissance de calcul pour entraîner les modèles. C'est une entreprise dont la valorisation a explosé. Et le CEO de Nvidia a expliqué qu'ils n'avaient jamais vu ça. XAI a créé ce data center en 19 jours. quand je dis créer, c'est à dire mettre en place toutes les cartes graphiques, le réseau, les connecter. En fait, c'est un boulot énorme que ce soit au niveau hardware avec la mise en place physique des serveurs ou software avec tout ce qui est connectivité des serveurs. Ils ont fait un boulot énorme. En fait, le PDG de Nvidia qui a un profil hyper intéressant, Jensen Wang, qui est taïwanais. et qui travaillait en tant que nettoyeur avant de créer LVIA, donc c'est vraiment un parcours de ouf. Et bien Jensen Wong a dit que, en gros, normalement, ça prenait peut -être un an ou deux de créer un data center comme ça. Xa, il l'a fait en 19 jours. Je sais pas si vous vous rendez compte du niveau d'exécution de Elon Musk et de ses équipes, mais Elon Musk, pour moi, c'est vraiment un mec qui est excellent dans l'exécution, quitte à virer des gens sur le passage. quitte à être intransigeant avec ses équipes. On aime ça ou on n'aime pas ça, mais il faut quand même souligner le fait que ça fonctionne et que en exécution il est extrêmement fort. Et c'est pour ça qu'avec des entreprises comme SpaceX, l'exécution est primordiale parce qu'il faut optimiser tous les coûts. Et là, ils réutilisent maintenant leur lanceur. et bien toute cette exécution pour XAI a permis de créer ce data center en 19 jours et en fait ils ont rattrapé une grande partie de leur retard. Ils avaient plusieurs années de retard sur OpenAI et là leur modèle Grok sont intégrés à Twitter ou X maintenant ça s'appelle X et plus Twitter. Le Grok 3 est vraiment puissant. Ils ont le mode Deep Research que je vous conseille. qui franchement concurrent sur le mode DeepResearch de ChatGPT ou de Perplexity. Ils ont le mode image, bon, qui est pas mal et qui reste encore amélioré. Mais franchement, Grok 3, c'est vraiment pas mal. Et j'ai, par exemple, sur un projet, j'étais bloqué. J'étais bloqué avec les modèles Claude 3 .5 Sonnais dans mon code et dans ma logique. Alors que je pensais que c'était les meilleures modèles et puis j'ai demandé à Grok de m'expliquer. et Grok a trouvé la solution à des problèmes où j'étais vraiment bloqué. Et c'est là que je me suis dit, ouais, franchement, le mode raisonnement de Grok, il est très puissant.
Donc Grok, je vous conseille de l'utiliser plutôt pour des problèmes avancés, des problèmes complexes. Sinon, pour le reste, tchazipd fait déjà tout très bien. Et ça reste à surveiller Grok, parce que ça fait longtemps qu'ils n'ont pas sorti un autre modèle. Et je pense que... Ils sont en train de travailler sur des modèles très très puissants. Je crois que j'avais vu certains posts de Elon Musk qui disaient que Grok était en train de travailler sur des modèles super puissants. Donc à surveiller. Je crois qu'ils ont ajouté Grok dans certains environnements de développement comme Cursor dont je vous parlerai bientôt. Cursor c'est vraiment les environnements de développement qui permettent maintenant de multiplier sa productivité par 10 pour des développeurs. Et j'ai montré ça à un ami qui n'avait jamais codé de sa vie. Et je lui ai expliqué Cursor. Il a créé plusieurs applications tout seul. Alors bien sûr, il y avait des points de blocage et tout, mais franchement, c'était vraiment très impressionnant. Et depuis, il s'amuse beaucoup avec. Donc je vous expliquerai Cursor. Et en gros, l'avenir du code, comment créer des applications simplement, même si vous n'avez jamais fait une seule ligne de code. Je pense que ce sera le sujet d'un prochain épisode. Mais j'aimerais finir avec les concurrents de TchadJPT sur une petite pointe d'ironie, une petite touche humoristique. En France, on aime bien tout ce qui est public, alors que je pense honnêtement que les meilleurs acteurs dans... Ceux qui font de plus de percés dans la recherche, c'est des acteurs privés.
Mais en France, on s'est dit, le gouvernement s'est dit, on va créer une IA. Ils ont créé un organisme qui s'appelle Open LLM, qui avait pour but de créer son IA générative open source, un peu comme Mistral ou Meta. Sauf que cette fois, c'est un organisme public. Et ils ont... créer leur IA qui s'appelle Lucy et en fait ils en étaient très fiers quand ils l'ont sorti et ça a été un énorme flop. Il y a eu énormément d'exemples où en fait Lucy était très mauvaise, ça a fait un flop. Je pense que c'était pas forcément mérité honnêtement et qu'on doit pas se moquer des gens qui essayent de créer des choses, notamment dans l'IA générative. C'est extrêmement difficile. Évidemment qu'il y a tellement de cas d'usage que lorsque vous lui posez des questions en particulier, ça peut avoir des réponses mauvaises. Je pense qu'ils se sont un peu emballés parce que Lucie avait peut -être des réponses assez bonnes sur certains points, mais c'était pas totalement testé et peaufiné. Donc il y a Lucie de Open LLM liée au gouvernement français qui a fait un énorme flop. Donc je pense qu'ils vont revoir leur copie, nous faire quelque chose de nouveau. Moi je leur conseillerais de garder de l'argent public, d'économiser de l'argent public, mais par contre de réduire les charges sur les entreprises afin que la recherche privée explose et que des entreprises comme Mistral puissent recruter les top talents sans qu'ils partent tous aux Etats -Unis en les payant extrêmement bien. Voilà pour Lucie, voilà pour les concurrents d'OpenIA, j'espère que j'en ai pas oublié. Dites -moi dans les commentaires si j'en ai oublié. Et je vous rappelle de mettre 5 étoiles à ce podcast si cet épisode vous a plu. Je vous remercie et on se voit dans un prochain épisode. C'était Guillaume, ciao !