Les intelligences artificielles sont-elles vraiment intelligentes ?
6 mai 2025
Dans cet épisode, on explore le mode de raisonnement des intelligences artificielles. Comment sont-elles conçues ? En quoi leur fonctionnement diffère-t-il de notre cerveau ? Et surtout : une IA pourrait-elle un jour devenir consciente ? Autant de questions passionnantes qu'on décortique ensemble dans cet épisode de Génération IA.
Vidéo YouTube de Benjamin Code : https://youtu.be/aKID17HgAmI?si=YVshZxEg_4cfWjYe
Une question ? Contacte moi : guillaume.gay@protonmail.com
Transcription
Bonjour à tous et bienvenue sur ce quatrième épisode de Génération IA, le podcast pour décrypter l'actualité IA et apprendre à se former parce que se former sur l'IA est devenu une des priorités. Notamment, j'ai vu dans ma newsletter IA qu'il y avait plein de patrons aux US qui venaient de signer une lettre ouverte dans laquelle ils demandaient au gouvernement. de rendre obligatoire l'apprentissage de l'IA à l'école et que ce devait être un cours obligatoire. Et donc pourquoi ? Parce que ceux qui ne maîtrisont pas l'IA risquent de passer derrière et risquent d'être obsolètes en fait dans le monde du travail. Donc il y a plus de 250 CEOs US qui ont signé cette lettre, notamment le CEO de Airbnb le CEO de LinkedIn, le CEO de Zoom. Là, je regarde le CEO de Palantir. Vraiment que des top CEOs. Et donc ils disent que l'IA peut augmenter de 8 % la masse salariale, à condition bien sûr que les gens maîtrisent l'IA et que ça va créer 660 milliards de dollars en opportunité aux États -Unis. Donc c'est très important de se former à l'IA, ça l'est de plus en plus et je vous demande de partager ce podcast parce que ceux qui passent à côté, eh bien, vont être relégués et ça va aller très très vite. En fait, c'est vraiment une exponentielle. Plus le temps va passer et plus ceux qui ont adopté l'IA tôt vont se démarquer des autres. Donc vraiment ne restez pas derrière. Suivez ce podcast, on va voir tout ça ensemble. Et effectivement, ma newsletter, quand je dis ma newsletter, c'est, vous savez, dans l'épisode 1 ou 2, je crois que c'est l'épisode 2, j'avais raté les tâches d'Uncharted GPT. Du coup, j'ai configuré une tâche qui est de m'envoyer une newsletter des actus IA. Je l'avais configuré toutes les semaines, mais je viens de changer à tous les jours. Comme ça, tous les matins, je peux configurer. ma newsletter et ce qui est top c'est que je peux prompter ce que je veux donc j'ai vraiment prompté que je voulais résumer maximum 3 points et bien souligner par exemple des actualités ou des anecdotes percutantes afin de nourrir mon podcast donc créez -vous votre newsletter créez -vous par exemple si vous travaillez dans la finance et que vous passez une demi -heure le matin à regarder les articles qui sortent par rapport aux news dans le monde de la finance, et bien planifiez -vous une tâche que Chiat GPT va lancer automatiquement une demi -heure avant que vous vous réveillez, parce que oui, vous pouvez configurer l'heure. Et vous n'avez plus qu'à lire ce petit résumé qui sera personnalisé pour vous. Et donc, vous gagnerez déjà pas mal de temps. Cette newsletter, je voyais également que l'entreprise JP Morgan, la banque JP Morgan tire 20 % de croissance et 1 ,5 milliard d'économies grâce à l'IA. Apparemment, ils ont augmenté leurs ventes, etc. parce qu'ils ont un coach IA en interne. Petite actualité comme cela. Mais commençons ce podcast. On va aborder un peu plus profondément le raisonnement des IA générative. Parce que oui, désormais les IA générative résonnent. Vous l'avez peut -être vu quand vous cherchez sur chars de GPT ou d'autres outils. Désormais, on peut un peu voir le mode de pensée, notamment pour les questions complexes. On peut voir que l'IA se parle à elle -même. Et après, on peut voir la réflexion. Donc là, par exemple, je vois que je lui ai demandé le résumé pour aujourd'hui parce que j'avais mal configuré ma tâche. et là il a fait une réflexion qui dure 37 secondes et je vois chaque point de sa réflexion donc le premier point c'est par exemple l'utilisateur me demande le résumé du jour le problème c'est qu'ils ont défini une automatisation pour recevoir le résumé chaque vendredi à midi mais aujourd'hui c'est le 6 mai 2025 soit un mardi donc le résumé doit vraiment correspondre à vendredi dernier le 2 mai 2025 bref il se pose plein de questions en fait un peu trop mais après il synthétise tout ça Ensuite, il y a un deuxième point. Aujourd'hui, 6 mai 2025, je vais effectuer une recherche sur les dernières nouvelles surprenantes concernant l'IA. Je vais planifier une recherche actualisée avec un filtre rétrospectif de 24 heures. Je vais déterminer deux ou trois récits intéressants à résumer, etc., etc. Ensuite, il fait sa recherche. Ensuite, il analyse ses recherches. Il en refait une deuxième, etc. Il analyse les sources et il me sort enfin mon petit résumé. Donc, L'IA réfléchit, en tout cas, c'est ce qui est marqué, réflexion durant 37 secondes. Mais on va voir depuis quand et puis comment ça se passe, parce que ça n'a pas toujours été le cas. Les réflexions dans l'IA, c'est quelque chose qui est relativement récent. Mais reprenons juste quelques points, notamment, je disais dans l'épisode 1 que je n'avais pas codé depuis un an environ. alors que c'était pas vraiment un nom parce que quand même j'écris un petit peu de code mais j'utilise en tout cas un environnement de développement avec des modèles intégrés depuis un an à peu près et je vois aujourd'hui une vidéo du youtubeur Benjamin Code qui est un peu une référence dans le monde du développement francophone sur youtube qui a 150 000 abonnés et qui a sorti une vidéo qui s'appelle Trois mois que je n'ai pas codé une ligne de code moi -même. Trois petits points. Alors moi j'avais dit un non, lui c'est trois mois seulement, peut -être qu'avant il considérait que les modèles n'étaient pas assez puissants par rapport à son niveau parce qu'il est peut -être meilleur que moi. Après j'ai regardé sa vidéo et il explique qu'il était réticent au début, donc en mode jamais Lianne pourra me remplacer pour coller. Et là, ça fait littéralement trois mois qu'il n'a pas codé une ligne lui -même, et il explique notamment certaines features qu'il a implémentées grâce à l'IA. Mais vous voyez que ça va quand même très vite, parce que Benjamin Code a un certain niveau quand même en développement, il a plus de 10 ans d'expérience, et là, il considère que c'est plus rapide de laisser l'IA faire le travail pour lui, plutôt que de le faire lui -même. Après, il est là pour spécifier les spécifications et bien sûr vérifier que ça marche et valider les changements. Donc, il faut quand même une petite expérience et je recevrai sur ce podcast un ami à qui j'ai appris à coder en partant de zéro grâce à l'IA. Et on va voir la différence entre un débutant qui a appris à coder grâce à l'IA récemment. Et Benjamin Code qui, lui, a 10 ans d'expérience ou moi -même 5 ans d'expérience. On va voir que quand même, il y a pas mal de blocage lorsqu'on est débutant et on ne peut pas encore tout faire, ce qu'un développeur expérimenté peut faire.
Heureusement d'ailleurs, mais on va voir qu'il y a des limites à tout ça. Cependant, quand on maîtrise déjà un sujet, utiliser l'IA, c'est extrêmement puissant. Mais c'est pareil en fait quand on délègue une tâche, même dans une entreprise quand on délègue une tâche à quelqu'un, si on maîtrise cette tâche, c'est beaucoup plus facile de la déléguer parce qu'on va pouvoir vérifier que le travail est bien fait. Donc il faut toujours déléguer des tâches que l'on est capable de faire pour pouvoir les auditer, les vérifier, lorsqu'elles sont faites. Si on délègue quelque chose qu'on ne sait pas faire, et bien on ne sait pas en fait si la personne ça se trouve que ça va lui prendre un jour comme 20 jours à faire et elle peut travailler un jour dessus et nous dire qu'elle a travaillé 20 jours dessus. Si nous on n'a aucune idée de cette tâche, en fait, c'est difficile de vérifier. Et même pour vérifier la qualité du travail, c'est mieux d'être un expert que de ne pas savoir du tout. Donc, Benjamin Code a fait cette petite vidéo qui dure... 13 minutes 54. Je vous invite à la regarder éventuellement si ça vous intéresse. Je l'invite sur ce podcast d'ailleurs. Si tu m'écoutes, Benjamin, je pense que pour l'instant, je n'ai pas énormément d'écoute, donc ça m'étonnerait. Bien qu'on a franchi les 100 écoutes en trois épisodes, donc je suis assez content, franchement. J'ai eu de très bons retours encore. Merci beaucoup. J'ai fait énormément de pubs, j'ai simplement parlé de ce podcast sur Instagram à mes amis. J'espère que des gens qui ne viennent pas d'ici vont voir ces podcasts et grâce aux recherches sur Apple Podcasts, Spotify, etc., avec les recommandations, bien vont trouver ce podcast. Je cherche des moyens de le diffuser plus grandement. Le truc c'est que je ne me filme pas, donc je ne peux pas créer vraiment des formats short, reals et TikTok. Parce que c'est mieux d'avoir une vidéo quand même. Peut -être que quand j'aurai des invités, je pourrais filmer et faire ce genre de format et créer une page sur les réseaux sociaux. Je verrai, mais sinon, je compte un peu sur le référencement.
Et puis, si j'ai des invités qui vont venir, qui auront une petite audience et qui pourront également les partager. Donc le but, c'est quand même d'avoir un projet de long terme, d'avoir ce podcast sur le long terme. Je fais pas mal d'épisodes au début parce que j'ai beaucoup de choses à dire, parce que je travaille sur le domaine depuis plusieurs années. Maintenant, là, j'épuise rapidement mes réflexions profondes lors de ces premiers épisodes parce que je traite des gros sujets. Mais après, je ferai plutôt des épisodes de revue d'actualité, de suivi d'évolution. des nouveaux outils et bien sûr des intervenants. Donc je ne reprendrai pas à chaque fois les bases, mais le but de ces premiers épisodes, c'est un peu de traiter les bases de l'IA générative où on en est aujourd'hui et comment on en est arrivé là. Donc le raisonnement, le raisonnement, honnêtement, franchement, j'ai été bluffé par les features de raisonnement. je distingue en fait deux cas d'usage, donc il y a les requêtes normales qui sont des inférences, c'est -à -dire on demande à Tcha -JPT, il nous répond classique. Et ensuite, il y a le raisonnement et le raisonnement, c'est marrant parce que là dans l'IA générative, on essaye de mimer le fonctionnement du cerveau humain. C'est un peu du biomimétisme, dans le sens où les IA génératives on appelle ça en fait des réseaux de neurones, les modèles. C'est à dire que vous avez une entrée, une sortie et entre ces deux entrées et sorties, vous avez plein de neurones artificiels. Donc des neurones artificiels, c'est des points qui vont, c'est des 0 et des 1 en fait, tout simplement. C'est une énorme matrice. Et puis, pensez que, par exemple, vous reliez les petits jeux où on devait relier le point d'entrée et le point de sortie en prenant un chemin. Et bien là, c'est pareil. Entre l'entrée et la sortie, il y a un chemin qui est pris dans ce réseau de neurones et on aboutit à la réponse. Il y a un peu un effet boîte noire dans le sens où parfois les chercheurs ne savent même pas pourquoi un neurone est parti dans un chemin et pas dans un autre. Parce que ça reste des probabilités. Et les probabilités, c'est jamais déterministe à 100%. C'est ça qui est fascinant. C'est pas quelque chose qu'on peut maîtriser à 100%. Et c'est comme dans le cerveau humain, on peut avoir des réactions différentes, mais on ne sait pas forcément pourquoi on a ces réactions. Et les viages génératifs, c'est vrai qu'on les a entraînés avec tout un tas de données. Donc entraîné, c'est qu'on leur a passé tout un tas de données. dans le modèle et c'est un peu en fait comme quand un humain grandit, il va voir tout un tas d'informations, il va écouter tout un tas de choses et il va apprendre. Et bien là, c'est pareil, l'IA va apprendre à partir de tout un tas de données. Et les IA génératives actuelles peuvent générer des images, elles sont multimodales, mais elles sont principalement textuelles et donc on va leur faire apprendre avec énormément de textes. C'est à dire que on va tout récupérer, toutes les données sur Internet, notamment Wikipédia, etc. Puisqu'il y a quand même des sacrés bibliothèques de données grâce à Wikipédia, notamment. Et on va les synthétiser, toutes ces données, enlever toutes les mauvaises données pour pas que, en gros, on entraîne à dire des bêtises. Et on va passer ça au modèle comme si on faisait lire à un enfant tout Wikipédia, un adolescent, au fur et à mesure qu'il grandit. il va assimiler toutes ces données. Et après ça, bon, il y a de l'apprentissage supervisé, etc., mais je pourrais revenir dessus. Pourquoi je disais ça ? Pourquoi je disais ça ? Oui, parce que du coup, ça, c'est des inférences ensuite classiques. C'est -à -dire qu'on va passer dedans, on va arriver à la sortie. On ne sait pas exactement comment ça s'est passé. D'ailleurs, le fait que ce soit une boîte noire, Dario Amodei, le CEO de Antropiq, disait que c'était un grand danger. C'est un peu lui qui a alerté sur le fait que, attention, on ne sait pas exactement ce qui se passe dans ses neurones, parce que c'est probabiliste et non déterministe. Et du coup, il disait que ça serait bien de mettre en place des façons de comprendre pourquoi l'IA a pris tel ou tel chemin. Puisqu'ici demain, l'IA a une conscience. bien on pourra comprendre et on pourra comprendre même le cerveau humain grâce à l'IA. On peut faire du reverse engineering en partant d'une IA pour mieux comprendre le cerveau humain. C'est ça qui est fascinant.
J'ai vraiment l'impression qu'on est en train de reconstruire un cerveau humain petit à petit parce que Yann Lequin explique très bien que en fait nous, depuis qu'on est petit, on a consommé énormément plus de données qu'un modèle style chat GPT. Pourquoi ? Parce que nous, on a consommé toutes les données audio et vidéo, en plus des textes qu'on a lus. Et les données vidéo, en fait, c'est des données très lourdes en termes de taille. On ne peut pas, pour l'instant, entraîner un modèle avec autant de données vidéo. C'est beaucoup trop. Mais notre cerveau, En fait, il est extrêmement bien fait. Il est extrêmement mieux optimisé que les IA génératives actuelles. C'est assez contre -intuitif parce qu'on peut se dire qu'on retient pas forcément tout alors que ChiaJPT connaît tout. Mais le cerveau actuel a amassé énormément de données et fonctionne beaucoup mieux que les réseaux de neurones artificiels. L'idée, j'imagine, des chercheurs en IA, c'est de se rapprocher des performances d'un cerveau humain en termes de traitement de données. Et à partir de là, on pourra lui passer toutes les données et ça va être méga puissant. Mais du coup, ça c'est la première étape, les inférences. Et comme on ne sait pas trop ce que ça donne, en fait, les transformeurs, donc ce qui est à la base des LLM, va prédire le mot suivant dans une phrase. Donc si vous écriviez je, il va prédire je m'appelle, par exemple. Ensuite, il va prédire le prénom le plus probable selon la langue. Donc je sais pas, mais par exemple Jean. Et ensuite, il va prédire... Donc ça peut... Il y a 50 % de chances qu'ils disent par exemple Jean, 50 % de chances qu'ils disent autre chose. C'est juste pour imager. Donc ça peut partir dans tous les sens, en fait. Si vous répétez la même requête, exactement la même question à un LLM, il va jamais vous sortir la même réponse. Tout ça parce qu'à chaque mot, il y a une certaine probabilité et c'est pas sûr à 100 % qu'il parte sur une réponse en particulier. Si vous accumulez toutes ces probabilités, la probabilité qui donne exactement la même réponse à une question donnée, c'est genre 0%, littéralement. Et donc c'est pour ça que c'est important de bien prompter parce que Il se base pas seulement sur le mode d'avant pour prédire le mode d'après, il se base sur toute la phrase, tout le texte avant qu'on met en contexte. C'est -à -dire le prompt plus le système prompt qui est configuré derrière que nous on voit pas dans le chat GPT. Mais chaque IA est déjà pré -configuré à être poly par exemple, etc. Mais l'idée c'est de plus on peaufine le prompt, plus on l'oriente pour sortir un résultat précis avec une probabilité grande.
Et en fait, les chaînes de pensée, chaîne of thoughts, c'est exactement ce qui est sorti il y a quelques mois, il y a des chercheurs qui se sont rendu compte qu'en demandant à Lya explicitement d'expliquer son raisonnement avant de fournir une réponse, elle donnait des réponses plus précises. Et là, ils se sont dit, mais c'est bizarre ça. Pourquoi elle donne des réponses plus précises ? Parce qu'on lui demande d'expliquer son raisonnement et que quand on lui demande pas d'expliquer son raisonnement, les réponses sont moins bonnes. C'est pas la même réponse. Parce que quand elle explique son raisonnement, du coup, elle va reprendre étape par étape et ça va orienter le résultat final vers une sortie plus probable qui va reprendre toutes les étapes et donc se rapprocher beaucoup plus d'une réponse juste et vraie. Je sais pas si vous arrivez à comprendre, à me suivre là -dessus, peut -être que j'ai du mal à expliquer ce point. Mais c'est vraiment fascinant. Les chercheurs eux -mêmes, par défaut, c'est pas vraiment leur intuition qui leur ont amené à penser ça, mais c'est vraiment aux testants. Ils se sont dit, tiens, On a réussi à l'orienter puisque à chaque fois qu'on lui demandait d'expliquer sa réponse étape par étape, la prédiction finale était plus facile pour lui puisqu'on avait décortiqué toutes les étapes. Plus facile et plus réaliste. Et donc ils se sont dit, ce qu'on va faire, c'est que désormais on va créer des modèles de raisonnement qui vont décortiquer des problèmes en plusieurs points donc on va les configurer soit via le prompting soit en faisant plusieurs inférences successives mais généralement juste dans le prompt par exemple l'orienté ça suffit on lui dit explique tes données ton raisonnement étape par étape et ensuite c'est ce qu'il va faire les agents IA C'est un peu différent, mais ça reprend le même principe.
Il peut itérer sur lui -même. Je crois qu'il y avait un outil au début qui s'appelait AutoGPT. Mais en gros, par exemple, on prend la sortie et on la remet dans un nouveau call API, et puis, etc. jusqu'à aboutir à une réponse satisfaisante. Et on lui dit, en fait, via une boucle infinie, tant que... tu n'as pas une réponse 100 % satisfaisante, donc c'est à lui aussi de se faire ce jugement que la réponse à la question initiale est complète. Tant que la réponse n'est pas complète, et bien il tire et essaye de décortiquer le problème pour trouver cette solution. Donc il peut faire ça en plusieurs étapes. Il y a plein de façons d'implémenter un raisonnement mais... Ce que je veux vraiment qu'on retienne, c'est que juste le fait de lui demander dans le front d'expliquer son raisonnement peut aboutir à un résultat meilleur. Ça fait quand même réfléchir sur l'IA, en fait, est -ce que l'IA peut avoir une conscience, etc. On a demandé à beaucoup de chercheurs déjà et il y en a un qui pense que oui. Et il y en a un qui est non -églisable. Il s'appelle Ilya. Alors son nom de famille Sudskéver. Mais honnêtement, il est américain, je crois. En tout cas, il habite aux États -Unis, puisqu'il travaillait pour OpenAI. Il est, il est, il est, il est, il est russe. Pas du tout américain. C'est pour ça qu'il a un nom un peu compliqué. Il est russe et il était chercheur en chef chez OpenAI. Il a démissionné. et il est en train de créer sa société qui s'appelle Safe Super Intelligence Incorporation SSI, en opposition à ce qu'on appelle AGI, c'est en gros la super intelligence, c'est quoi les initiales AGI ? Intelligence Artificielle Générale, pardon.
Et donc lui, il pense que les IAs génératifs peuvent avoir une conscience. et il explique tout simplement le raisonnement. En gros, puisque en fait les IH générative sont basés sur la prédiction du mot suivant, et il prouve que c'est ça l'intelligence en fait. C'est la prédiction du mot suivant, c'est littéralement la définition de l'intelligence. Pourquoi ? Parce que dans une intrigue policière par exemple, imaginez un scénario à la Agatha Christie, et bien tout le livre va donner des indices sur qui est le criminel final. Et donc tout ce scénario se met en place. Et à la fin, on va dire le criminel est. Et là, si l'IA prédit le bon criminel en se basant sur tous les indices, eh bien, on peut considérer qu'elle est intelligente puisque, en fait, la réponse la plus probable est clairement la vérité. C'est un fait. c'est le fait que cette personne a tué telle personne parce que c'était ses empreintes, etc. Ça peut pas par élimination être telle personne qui avait un bon alibi. Et donc, il explique simplement que ce raisonnement est une preuve d'intelligence. Et que pour la conscience, c'est un peu plus compliqué, mais... Mais il explique que puisque un cerveau est fait à base de réseau de neurones et que nous avons une conscience, eh bien, il pense tout simplement que puisque les réseaux de neurones artificiels ont la même architecture, pourquoi n'aurait -elle pas de conscience non plus un jour ou l'autre ? Honnêtement, je n'ai pas creusé toutes ces questions philosophiques plus que ça, mais gardé en tête qu'en fait, il se passe quelque chose de particulier avec les Large Language Models, c'est qu'ils deviennent vraiment intelligents, dans le sens où ça se voit en fait. On a l'impression que les derniers modèles de tchadjpt, etc., ils ont quand même une certaine intelligence, ils s'adaptent. L'intelligence, on dit souvent que c'est l'adaptation à son environnement et les modèles de tchadjpt peuvent s'adapter à l'interlocuteur, etc. Donc vraiment, ils peuvent faire preuve de discernement, etc. Donc c'est pas pour vous faire peur, mais les Large Language Models, et bien en fait c'est peut -être, peut -être, on n'est qu'au début et ils peuvent aller encore beaucoup plus loin. Alors après, j'ai vu que Yann Lequin disait que ça se fera pas forcément avec les technologies et les architectures actuelles. Il faudra potentiellement inventer des architectures en réseau de neurones, etc. Autre que les transformers qui soient plus efficaces encore, pour arriver à un niveau beaucoup plus haut. Mais voilà. Maintenant, si on essaye d'appliquer le raisonnement des IA, si on considère qu'elles donnent des meilleurs résultats lorsqu'on demande explicitement et bien de fournir les étapes de réflexion. On pourrait transposer ça à nous -mêmes en se disant, lorsqu'on se pose une question, au lieu de donner directement une réponse qui nous passe par la tête, appliquons le même framework où on va essayer d'expliciter dans notre tête ou sur un papier nos étapes de raisonnement. Et peut -être, peut -être que ça nous amènera également à donner des meilleurs résultats, qui sait. Donc petite parenthèse refermée, Tout ce que je voulais vous dire par rapport au raisonnement pour aujourd'hui. Si vous avez des questions, j'ai mis mon mail dans le podcast, notamment si vous êtes une entreprise ou si vous avez une entreprise et que vous voulez utiliser l'IA générative pour augmenter votre productivité, automatiser vos process. N'hésitez pas à me contacter. On peut voir ce qu'on peut faire ensemble. Je crée beaucoup d'outils d'IA, notamment J'ai mis dans l'épisode précédent mon code pour le transcript et le chapitrage automatique. Je crée d'autres applications qui ne sont pas forcément tout le temps publiques sur GitHub, mais n'hésitez pas à me contacter. Merci encore pour tous vos retours. Si vous avez des idées de thèmes de podcast, vous pouvez également me les transférer. Et je vais continuer avec ma petite newsletter IA configurée automatiquement dans ChiaJPT via les tâches. D'ailleurs, je vais peut -être, si le podcast marche bien, lancer ma propre newsletter dans laquelle je sélectionnerai certaines actualités. Mais voilà pour aujourd'hui. Je vous remercie et on se dit à très bientôt pour le premier invité dans ce podcast. Donc ne ratez pas ça. Abonnez -vous et je vous souhaite une excellente semaine. Ciao !