Session du 17 juin 2024 à 20h30
Data Science & IA
Introduction au Deep Learning
Après avoir présenté le machine learning, je vais vous présenté son cousin, le deep learning !
On parlera dans un premiers temps du perceptron, puis des réseaux profonds, jusqu'au CNN ainsi que les domaines d'applications.
00:00:00 :Alors vous me dites quand c'est bon du coup les gars pour l'enregistrement.Ok alors déjà bonjour à toutes et à tous.Merci d'être venu ce soir pour cette deuxième vidéo sur l'IA, donc en apprentissage automatique.
00:00:21 :Alors moi je m'appelle Marius Nord, je suis actuellement étudiant,donc je viens de passer en master 2 d'intelligence artificielle sur Marseilleet je suis passionné par tout ce qui est l'apprentissage automatique.
00:00:35 :Il y a un peu plus d'un mois, j'ai préparé une vidéo sur l'introduction au machine learning.Si jamais certains d'entre vous veulent la voir, elle est dispo sur ma page YouTube,donc je vous repasserai le lien plus tard.
00:00:51 :Sachant que celle-là est aussi enregistrée pour ceux qui aimeraient la visualiser.Alors ce soir qu'est-ce qu'on va parler ?On va faire un petit plan de présentation de ce domaine qu'on entend parler un petit peu partout en ce moment.
00:01:05 :Je vais mettre un petit peu des points sur l'IA sur les différentes idées reçues,vous donner un petit peu plus d'explications sur ce que c'est.
00:01:16 :On va parler un petit peu mathématiques, mais on va rester raisonnés.Donc dans un premier temps, on va parler de ce domaine,quel est l'impact, qu'est-ce que c'est, donner une bonne définition.
00:01:29 :Ensuite, on va parler d'un algorithme qui est à la base de ça, qui est le Perceptro.Ensuite, on va parler de ce qui en découle, le principe de base.
00:01:38 :Qu'est-ce qui a fait que le Deep Learning est devenu très puissant ?Ensuite, on va prendre un exemple d'architecture de Deep Learning,qui sont les CNN, les Conventional Neural Networks.
00:01:53 :Et enfin, on fera un petit résumé de tout ça.Alors déjà, une petite introduction.Je vous prends une des slides que j'avais utilisées pour l'ancienne vidéo.
00:02:05 :Dans l'intelligence artificielle, vous avez un domaine qui est l'apprentissage automatique,Machine Learning en anglais,qui sont des systèmes qui apprennent sur la base de grands ensembles de données structurées.
00:02:19 :Et dans ce sous-ensemble, on a aussi un domaine qu'on appelle le Deep Learning.C'est du Machine Learning, mais sauf que c'est basé sur des réseaux de neurones.
00:02:31 :Alors, les réseaux de neurones, qu'est-ce que c'est ?Nous, en biologie, on connaît le neurone biologique qui a été trouvé depuis pas mal d'années.Nous, en mathématiques, on a aussi un neurone, qui est celui-ci.
00:02:53 :En fait, un neurone, qu'est-ce que c'est en maths ?En fait, c'est très très bête.C'est une fonction mathématique.Vous avez des entrées, x, y.
00:03:04 :Donc là, j'ai mis de 1 à 4.Qu'on peut multiplier par un acteur w.On appelle ça un drap des poids.Et ensuite, par rapport à une fonction d'activation, on va activer ou pas le neurone.
00:03:20 :Jusque là, j'espère que je n'ai perdu pas trop de monde.C'est vraiment une fonction mathématique de base.Donc là, je vous ai marqué le fameux z1.
00:03:31 :C'est égal au w1, x1, w2, etc.Plus un facteur biais.Donc en fait, ça c'est vraiment la partie de base.Et ça va nous permettre de comprendre...
00:03:42 :Quand je prends une fonction d'activation, là on appelle ça une fonction sigmoïde.À partir d'une certaine...Là, comme vous voyez sur la courbe droite, à partir d'une certaine valeur en y, en x.
00:03:56 :Soit mon neurone va s'activer, soit il ne va pas s'activer.Et en fait, ce principe de base reprend exactement comment fonctionne un neurone dans le cerveau humain.
00:04:06 :D'accord ?Alors, je n'ai pas pris des images de neurologie parce que c'est vrai que ce n'est pas trop mon domaine.Mais en fait, dans le cerveau, les neurones fonctionnent avec des impulsions électriques.
00:04:18 :Donc soit il y a des impulsions électriques, soit il n'y en a pas.Si il y a une, il y a une activation. Et s'il n'y en a pas, il n'y a pas d'activation.
00:04:24 :Bon, en fait, à partir de ça, on appelle...C'est l'algorithme du perceptron.C'est ce qui va nous permettre de mettre la base de tes réseaux neurones.
00:04:32 :Mais vous allez me dire, ok, c'est bien beau, Marius, avec ce perceptron-là, avec ce neurone.Mais du coup, nous, le deep learning, on a entendu dire qu'il y avait des réseaux de neurones entiers.
00:04:43 :C'est vrai.Parce que lorsque je vais prendre...Je vais empiler ces différents neurones.Je vais avoir ceci.Je vais avoir, en fait, des couches.Alors, ne vous affolez pas sur les équations.
00:04:57 :C'est vraiment juste pour vous donner une petite image.Mais en fait, tout simplement, c'est pour vous montrer qu'avec deux entrées, je peux créer carrément des couches,donc des layers en onglet, qui sont des couches de neurones.
00:05:10 :Il en existe de différentes sortes.Là, on a une couche à quatre neurones.On peut très bien avoir deux couches.Une couche d'entrée, donc la première couche.
00:05:24 :Et une deuxième couche avec trois neurones.Mathématiquement, on sait faire.On a réussi à le faire fonctionner, etc.Donc ça, c'est pas mal.Et ensuite, on peut avoir des architectures.
00:05:39 :C'est une architecture, ce que je présente, un peu plus grande, on va dire.Donc avec celui-ci.Là, c'est un petit peu plus dense.C'est-à-dire que là, vous pouvez voir que j'ai quatre couches de neurones.
00:05:52 :Donc une couche d'entrée, deux couches profondes, parce qu'elles sont au milieu, et une couche de sortie.Jusque-là, vous vous êtes dit, c'est bien beau, mais là, je vois que des maths.
00:06:03 :Moi, je ne comprends rien.Ceux qui sont vraiment de pure informatique, ils disent, Marius, tu nous racontes ça, mais à quoi ça sert ?Pas de panique, je vais vous raconter ça plus tard.
00:06:14 :Donc d'abord, des maths.Eh bien, elle est où la magie ?On arrive à faire tourner des IA comme ChatGPT, qui font de la génération de texte.
00:06:25 :On fait tourner MeetJourney, qui produit des images.On connaît Copilot de Microsoft.En fait, on se dit, à partir de ça, comment j'entraîne du texte, comment j'entraîne des images, etc.
00:06:39 :Comment ça marche ?Déjà, il faut parler d'un facteur qui a permis de faire marcher le Deep Learning.C'est l'apparition du Big Data.Depuis le début des années 2000, on a trois critères, la vitesse, le stockage et la variété,qui ont vraiment fait un buzz assez énorme.
00:07:04 :Parce qu'on arrive à avoir des gros data centers en termes de stockage.Maintenant, on parle de peta-octets de données.C'est très très gros.J'ai mis une petite équation.
00:07:15 :Ça fait environ 200 SSD.Vous avez une vitesse de calcul qui est beaucoup plus rapide.Maintenant, on fait tourner des calculs sur des GPU.On va voir maintenant des TPU.
00:07:27 :C'est Google qui a sorti ça.Ce sont des puces électroniques qui ont été créées.Pas des puces, mais plutôt des mini-unités de contrôle qui permettent de faire tournerdes algorithmes de Machine Learning ou de Deep Learning à cette taille puissante.
00:07:45 :Je fais une petite pause.Il y a quelqu'un qui n'écoute pas son micro.Du coup, je m'entends en saccadé.Voilà, si jamais il pouvait...Du coup, ce buzz a permis d'avoir des puissances phénoménales.
00:08:02 :Le Deep Learning...L'algorithme que je vous ai montré tout à l'heure, tout ce qui est le Perceptron,ça date des années 1957.C'est un Américain qui s'appelle Ron Rosenblatt qui a mis en place cet algorithme.
00:08:17 :Vous voyez que le Deep Learning, ça date de très très longtemps.Mais le problème, c'est qu'au début, ça ne marchait pas.Parce que pour faire entraîner des réseaux de neurones comme ça, il en faut de la data.
00:08:28 :Et plus si vous faites tourner...Je vous donne un ordre d'idée.Si vous faites tourner des réseaux de neurones sur 200 images, 300 images,comme on a pu le voir avec le Machine Learning,en fait, votre...
00:08:42 :Comment s'appelle votre Riel ?Il ne va pas prendre.Moi, quand je vous parle de Big Data,on parle en millions, voire milliards d'images.Il y a eu une des compétitions de Deep Learningoù on avait des bases de données qui faisaient une taille assez astronomique.
00:09:03 :Quand on parle de chat GPT, par exemple,le modèle qui a été entraîné, ça a été entraîné sur...Voilà, vous vous tenez à vos chaises.
00:09:12 :Surtout ce qu'on peut trouver sur Internet.Donc l'espace de stockage est assez énorme.On ne peut pas faire tourner un algorithme de Deep Learning sur n'importe quelle machine.
00:09:21 :Sur vos desktops, certains, on peut oublier.Il faut vraiment des grosses puissances de calcul.Maintenant, je vais reprendre tout à l'heurequand je vous parlais un petit peu du principe de base.
00:09:32 :J'ai parlé plus d'équations mathématiques, etc.,mais je ne vous ai pas donné un exemple.Et j'ai perdu pas mal de personnes.Et en fait, je vais vous donner quelque chose.
00:09:40 :C'est en prenant directement une architecture pure et dure,qui sont les CNN, pour que vous compreniez qu'est-ce qui se passe.Donc là, vous voulez faire une IAqui détecte un certain objet sur une image.
00:09:54 :Prenons le cas d'un animal.Que ce soit un cheval, un zèbre, un chien, un chat, ce que vous voulez.Donc une image, qu'est-ce que c'est ?
00:10:02 :Tout simplement, c'est un ensemble de pixelsdans un tableau, en 3 dimensions.RGB pour les couleurs, ou BGR.Ou en 2 dimensions, si c'est une scénarise en noir et blanc.
00:10:14 :Et tout ça, je vais pouvoir ajouter des filtres,qui vont me permettre d'extraire les caractéristiques.Pour ceux qui ont vu l'intro Machine Learning, rappelez-vous,qu'est-ce qu'on fait tourner dans un algorithme ?
00:10:30 :Ce sont les caractéristiques.On balance pas les images comme ça,on a une partie de traitement.La différence des réseaux de neurones,et c'est là que c'est puissant,c'est qu'on n'est pas obligé de passer par cette étape-là.
00:10:44 :Nous-mêmes.Au début, en Machine Learning,on avait des librairies comme OpenCV,où on extrait les keypoints, etc.Et ensuite, on balançait ça dans un modèle,on faisait de la classification et tout,pour extraire les bonnes caractéristiques.
00:10:58 :Nous, humains, on se dit,si je veux faire de la classification sur des visages, par exemple,il faudrait la forme du nez, la forme des oreilles,la forme des yeux, la couleur des yeux, de la peau, etc.
00:11:10 :En fait, on y va un peu tâton,parce que nous, on n'a pas de baseline,on se dit, qu'est-ce qu'il faudrait vraiment extraire ?C'est là que les CNN vont être vraiment sympas.
00:11:20 :Dans la partie Feature Extraction, ça va se faire tout seul.La puissance du Deep Learning,c'est que vous n'avez pas à extraire les caractéristiques.Vous balancez les images,vous configurez vos réseaux,comment va se faire l'extraction,mais pas qu'est-ce que vous allez extraire.
00:11:35 :Et ensuite, vous allez avoir une partie de classification,qui va être votre réseau de neurones interconnecté,comme vous avez dans Fully Connected Layers,où à partir de ce moment-là,les neurones vont soit s'activer, soit désactiver,et à la fin, on va avoir une probabilité.
00:11:54 :C'est-à-dire qu'on va nous dire, sur une échelle de 0 à 10,de 0 à 10%,quelles sont les probabilités de tomber sur un zèbre.Là, on a 70% de chance.
00:12:06 :Sur un cheval ou un dog.Là, j'ai pris trois classes.Je vais en avoir N.Si j'ai des probabilités, la somme fera 1.C'est ça qui est vraiment sympa.
00:12:19 :Là, vous avez un exemple d'architecture qui se fait.A la prochaine vidéo, je vais en créer une,et je vais vous faire du live-coding directement,pas trop d'expérimentation,mais vraiment pour montrer le côté concret de ce qui se passe.
00:12:33 :Je vais pouvoir vous expliquer,avec un exemple un peu plus flash sur vos yeux.Qu'est-ce qu'on retient de tout ça ?Déjà, une petite blague,mais jetez vos ordis Linux et Crankbook,parce que Windows va être vraiment votre ami.
00:12:52 :Non, je rigole.Maintenant, il y a des librairies un petit peu partout,mais le but, tout ce qui est le monde de l'IA,se fait entièrement en Python.
00:12:59 :Déjà, c'est vrai que,ceux qui n'aiment pas les langages de bas niveau,vous allez un peu galérer,parce qu'il faut gérer ce qu'on appelle des matrices,ou des tenseurs,des notions mathématiques un peu poussées.
00:13:13 :Python, ça va être vraiment votre ami,comme dans le shallow learning, d'ailleurs.On a une réelle révolution dans le monde de l'IA.Pourquoi ?Parce que, tout simplement,on arrive à faire tourner des machines un peu plus costauds,comme JEDGPT,puisque maintenant, vu qu'on a de la data,on sait comment la manier,
00:13:34 :on sait comment, etc.Après, on s'amuse, tout simplement.Alors, les architectures comme ça,elles sont privées.Donc, en fait, si vous voulez,OpenAI peut garder pour eux comment ça fonctionnait.
00:13:45 :Là, les CNN, comme je l'ai montré ici,ça, c'est vraiment pour de la classification pure.Après, vous avez des IAs qui sont génératives.Vous avez des IAs qui vont permettre de prédireles différentes choses, en fait.
00:14:01 :Mais vraiment, les détections d'objets,par exemple, comme je l'ai dit,ou en médecine.Là, par exemple, on peut se servir du deep learningpour détecter, par exemple,des cellules cancéreuses dans le cerveau.
00:14:14 :Ça, ça existe.Ça se fait notamment dans des labos de recherche.Donc, voilà.Qu'est-ce qui fait la puissance du deep learning ?C'est qu'on se rapproche aussi du comportement neuronal humain.
00:14:23 :Là, on parle de réseau neurone.On parle de fonction d'activation.On parle de IR, de couche cachée, etc.Bon, mais en fait, on se rapproche un petit peude comment, nous, on apprend les choses, tout simplement.
00:14:35 :Alors, pour vous donner un ordre d'idée,un humain, il a environ 86 milliards de neurones.D'accord ?Si je prends les derniers modèles de JGPT,donc GPT 4 et 4.0,
00:14:49 :on a un peu plus de, je crois que c'était,on est presque au triard de neurones.Donc, triard de neurones artificiels,comme j'ai présenté précédemment.
00:15:00 :Donc, en fait, on se rend compte que,à l'air de rien,on a une machine qu'on a entraînéependant plus de 4 mois, voire un an,sur des data centers qui disent 250 wattspour faire consommer une carte graphique,alors que nous, on fonctionne en 25 watts.
00:15:18 :Donc, ça, c'est un peu la chose qui est assez marrante,c'est qu'un humain, finalement,il n'a pas besoin de beaucoup d'énergie,et pourtant, on n'arrive quand même pasà créer un cerveau artificiel.
00:15:34 :C'est-à-dire qu'on a quand même des limitesavec le deep learning,c'est qu'on n'arrive pas, il n'y a pas de conscience.D'accord ? Il n'y a pas de sentiment,
00:15:42 :il n'y a pas de réelle introspection.Je dis ça parce que,vu qu'on commence à parler de JGPT en disant« Oui, mais est-ce que la machinecommence à avoir une conscience et tout ? »
00:15:54 :Déjà, il faudrait la définir en psychologie,et après, on comprendra déjàqu'est-ce que c'est matériellement,et ensuite, on pourra la réutiliser.Bon, pour l'instant, on n'est pas là.
00:16:03 :Il faut se dire que la machine,on lui donne des choses en entrée,on lui dit quoi faire,et elle fait ce qu'on lui dit.
00:16:09 :Il n'y a pas de contrôle.Ça, je mets vraiment,si vous avez des débats plus tard,je voudrais bien en discuter, si vous voulez.Mais comme je vous dis, en fait,le deep learning, c'est con,mais c'est une fonction mathématique, en fait.
00:16:23 :Quand, au collège, on était avecf de x égale quelque chose,c'est exactement pareil.Sauf que les x, maintenant,ce sont des milliers d'entrées,voire des trias,et en sortie, on a ce qu'on veut.
00:16:34 :Donc, c'est quelque chosequi est assez contrôlable.On se rapproche néanmoins de l'IA-force,parce qu'une IA-force, c'est une IAqui est totalement autonome.D'accord ?
00:16:46 :Donc, après,un peu comme dans le Terminator,sauf que la conscience,on ne sait pas ce que c'est.Comme je dis,on a une IA qui est assez spécialisée.
00:16:55 :La GPT, ça fait du texte,ça fait des images, d'accord ?Mais ça ne s'est pas bougé.Ça ne s'est pas, comment dire,ça ne s'est pas réfléchi,ça ne s'est pas résoududes équations mathématiques.
00:17:06 :Il n'y a pas d'invention, en fait.Grosso modo, quand vous demandezde débugger votre code,elle va décomposer votre demandeen vecteurs de taille très très grandeset elle va comparer ce qu'elle a appris.
00:17:20 :Donc, tout simplement,il n'y a pas de productivité,si je peux dire.Il y a juste de,ah, ça se rapproche d'un trucque j'ai connu,de tel article,machin, chose,qu'il m'a donné.
00:17:29 :Bon, voilà, c'est que ça.Donc, après,c'est ultra puissantparce que vraiment,comment ils ont compris l'architecture,ils ont fait en sorteque ça réponde à la demande.
00:17:37 :Mais après, là,vu que je parle d'une introduction,je ne voulais pas trop en parlerparce que ce sont des chosesqui sont trop pousséeset ceux qui sont encoreun petit peu débutants,je n'ai pas envie de vous dégoûter,même si j'ai mis des épreuvessur mathématiques,mais je n'ai pas voulu aller plus loin.
00:17:52 :Voilà, donc ça,c'était une copréhension.J'espère que ça vous a plu.Donc, maintenant,je suis tout libre pour écoutervos questions,si vous en avez,et puis avoir un petit peu vos retours.
00:18:06 :Voilà.Alors, je ne vois pas le chat.Si jamais vous avez des questions,prenez la parole directement.Non, pas de questions ?Si, mais j'étais loin.
00:18:31 :Tu m'entends ?Oui, dis-moi.Je ne sais pas qui tu es.Oui, c'est pas grave.Je voulais juste savoir,est-ce que tu avais déjà développécomme réseau de neuronesavec tes connaissances ?
00:18:45 :Oui, avec mes connaissances,je suis en train d'en faire un, d'ailleurs.En fait, j'ai développé,avec les CNN,une architecture qui peut détectersi un objet est recyclable ou pas,par exemple.
00:19:01 :Après, là, en ce moment,je suis en train de développer,donc c'est avec les CNN.Pour vous dire,les types d'architecture,il y en a plein.
00:19:09 :Moi, j'utilise un trucqu'on appelle les GAN.Ce sont des génératives adversaires,je ne sais plus quoi,antagonistes network.Ça, ça permet de faire de la...
00:19:21 :Ça crée des choses, en fait.Ça va faire de la production,notamment au niveau des images.Un peu comme fonctionne CGPT.Mes journées, pardon.Vous devez avoir un dataset.
00:19:31 :Alors moi, en ce moment,je suis en train de générerdes images de peinture.Enfin, j'essaye,c'est un peu compliqué.Peut-être que je peux vous montrerun petit peu une partie du code.
00:19:42 :Je ne l'ai pas sous tes yeux.En fait, si vous voulez,je vais donner un dataset de peinture.J'ai 65 Go de peinture.Ça fait environ 10 000 peinturesrépertoriées dans différents styles.
00:19:56 :J'ai du Van Gogh, du Monet, du Manet,du Pissarro, enfin j'en cite.Et à partir de ça,je vais entraîner un modèlequi permet de créer des nouvelles peinturesen mélangeant les différents arts.
00:20:06 :Voyez ?Bon, j'ai fait un petit pausesur la discussion générale.En fait, je me suis planté complet.Ce n'était pas ce que ça allait générer.
00:20:15 :Mais pour l'instant,il n'y a pas encore des formes.Il y a plus des amas de couleurs.D'accord ?Je n'ai pas eu encore des résultatsavec, je ne sais pas,la Joconde, la Picassoou des choses comme ça.
00:20:29 :Donc, pour l'instant, j'en suis là.Je reste encore un peu débutantdans le domaine.Après, je pense par la suite,peut-être dans un an,quand j'aurai fini mon master,j'aurai un petit peu plus d'expérience.
00:20:41 :Donc, ça sera intéressant ensuitede vous partagerce que j'ai pu apprendre,ce que j'ai appris tout au long de ça.Après, quelque choseque j'aimerais vous dire aussi.
00:20:51 :Souvent, des gens commencent en disant« Ouais, moi, je veux faireun assistant vocal comme Siriou comme Alexa ».Bon, il faut, entre guillemets,il ne faut pas prendre un bazookapour tuer une mouche.
00:21:04 :D'accord ?C'est-à-dire qu'il faut vraimentcommencer les choses pas à paset ne pas utiliser les outilspour faire n'importe quoi.OK ?Commencez par la base.
00:21:15 :D'accord ?Donc, la base, c'est le machine learningcomme je vous montraisdans les premières slides.Comment ça fonctionne ?Parce qu'il y a des tas d'algorithmesqui marchent très bien de nos jours.
00:21:23 :D'accord ?Parce qu'on n'a pas forcémentla chance d'avoir des bases de donnéesavec plus de 60 Go de donnéeset puis des machinesqui sont assez puissantes.
00:21:32 :Moi, je fais tourner tout ça sur RTX.Donc, vraiment, il faut commencerpar des trucs simplesqui puissent tourner.C'est quand même de l'apprentissage.D'accord ?
00:21:42 :Donc, je vous conseille vivementd'aller voir dans la vidéo« Intro Machine Learning ».Là, je parlais un petit peude la détection des objets d'une image.
00:21:52 :Donc, il fonctionnait très bienavec des outils de bagging.D'accord ?C'est vraiment quelque chosequi est très avancé, le deep learning.Ce n'est pas facile pour les débutants.
00:22:05 :Pardon, parce qu'il y aune partie mathématiquequi est assez avancée.D'accord ?Là, je n'en ai pas trop parlépour ne pas que tout le mondequitte mon vocalet que je me retrouve solodans la discussion.
00:22:14 :Mais il y a des chosesqui sont assez costaudes, d'ailleurs.Mais on ne peut pas.Enfin, je veux dire,ça ne me semble pas si difficile que çade faire un assistant vocaldans le sens où on n'a pas besoinde faire du deep learning,mais on peut juste coder
00:22:30 :une interface Python à Chef GPTqui peut « speak to text »,qui peut faire l'inverse,qui peut générer des images.Et du coup, tu as juste à faireune interface Pythonet tu fais ce que tu veux, non ?
00:22:44 :Alors, du coup, par rapport à ça,en fait, ce qui se passe,c'est que, comme tu l'as dit,tu fais ton interface Pythonet tu te sers de Chef GPTparce qu'il y a une API qui est dispo.
00:22:55 :Mais elle est dispo depuis, je ne sais pas,un an ou deux.Là, en gros, tu t'en fousde connaître le principe de basedu deep learning.
00:23:04 :C'est-à-dire que je suis d'accord avec toi,tu ferons une API,tu feras un abonnementet puis bon, ça se débrouille, etc.Après, si toi, tu veux créer...
00:23:11 :Moi, je crois plus, par exemple,qu'ils veulent en créer pour eux-mêmes.Bon, l'assistant vocal,maintenant, on sait que OpenAI,ils sont les top 1.Siri et Alexa,ça n'a pas l'air de coucher.
00:23:20 :Mais, par exemple, si je prends...Si je veux faire de la génération de texteà partir d'images,donc à mes journées,bon, il y a des recherchesqui sont encore faites,notamment de la génération des images.
00:23:31 :Là, si je prends le cas de...Alors, là, j'ai un...Comment ça s'appelle ?Ce fond d'écran-là.Ce fond d'écran-là, par exemple,il est généré à partir d'une IA.
00:23:44 :Voilà.Chef GPT,c'était aussi Chef GPT,c'est le 4.0.Je lui ai dit,à partir de la ville de Babylone,un jardin suspendu,je veux que tu me génères une imageavec un fond de...
00:23:57 :un coucher de soleilavec des oiseaux, etc.Bon, là, en fait,on va croiser les modèles.C'est-à-dire qu'on va avoirun modèle qui va recréer le texte,un modèle qui va recréer les images,et bam, on va faire un mix des deux,avec Chef GPT.
00:24:09 :Tu vois ?Donc, moi, en fait,vraiment, je parle du côté interne,de ce qu'il se passe.Après, les API,il en existe partout.Si tu veux faire la génération,etc.
00:24:21 :Bon, bien, l'autre journée,ça existe.Enfin, je reprends un peu ce que je dis,mais ça...Oui, bien sûr,je suis tout à fait d'accord avec toi.
00:24:28 :Après, c'est commequand quelqu'un qui veut faireun site Internet,il n'est pas obligéde coder Django.Il peut se dire,je le fais directementvia des applicationsqui existentpour créer d'autres sites.
00:24:38 :Et puis, ben, voilà, quoi.Ça, c'est pas...C'est pas, entre guillemets,enfin, c'est trouver la facilité,si je puis dire.Ouais, moi, je trouve que c'est plutôt coolde se construireà partir de ce qui existe déjà.
00:24:53 :Mais, ouais,c'est intéressantde savoir comment c'est faitpour de vrai.Et, effectivement,il y a de la recherche à améliorer.Par exemple, ton image,enfin, on voit ça,on dit directementque c'est pas naturel, quoi.
00:25:03 :Je ne saurais même pas direpourquoi c'est pas naturel,mais ça se voit que c'est pas naturel.Donc, il y a du progrès à faire.
00:25:07 :Pourquoi il y a du progrès à faire ?Parce qu'en fait,chaque détail,quand on le regarde bien,on se dit,un humain,pour qu'il fasse ça,il va mettre,un designer graphique,il va mettre des annéesà pouvoir faire ça, quoi.
00:25:19 :Donc, et puis,le détail,à partir de ça,oui, on se rapprochede la perfectionau niveau de la génération,je suis d'accord.Après,ce qui existe aussi,c'est que,alors ça,c'est un domainequi se fait beaucoup,c'est du fine tuning.
00:25:33 :C'est-à-dire qu'en fait,quand vous prenez l'APIde ChargeGPT,vous la prenezet vous l'implémentez,mais on peut récupérer aussiles réseaux neuronesde ChargeGPT,notamment le modèlequi a été enregistré.
00:25:43 :Et on peut récupérerle modèleet l'assigner.En fait,alors,c'était plus dans...Alors,je vais reprendremon diapo.Mais c'était plus,en fait,ici,dans cette partie-là.
00:25:56 :Ça,ça peut être ton réseauà toi,tu vois.Et la partie extraction,ici,avec l'ajoutdes filtres,etc.Nous,on ne sait pas forcémenttrop comment fairedes filtres.
00:26:09 :Personnellement,je vois des vidéos,mais voilà.En fait,cette partie-là,imagine qu'il y aitune très grande basede données,d'images.Donc,oui,on peut faire aussi,on peut récupérerdes choseset l'améliorer,etc.
00:26:25 :à notre goût.Si jamaistu ne veux plus fairequelque chosequi puisse produiredu texte,mais,je ne sais pas,produire du texteà partir du son,par exemple,tu vois,tu peux faire ça.
00:26:38 :Alors,je sais que,par exemple,le texte et le son,à l'heure d'aujourd'hui,tu vois,le texte,tu peux récupérerça de GPTet après,le son,tu peux créerta propre truc,tu vois.
00:26:52 :Le signal,c'est vraimentquelque chosede très difficile.Alors,Dragneer,dans le channel,c'est du transfert learning.Ouais,tout à fait.Voilà,il a mis la vidéode Machine Learning.
00:27:05 :C'est un mecqui est vraiment super.Je vous le conseille vraimentsi vous voulez avoirplus de détails,etc.Il met un exemple aussi.Alors,la conversion,son économen'est pas encore parfaite.
00:27:17 :Ça se voit sur YouTube.Voilà.C'est-à-dire,qu'on font les mots.Qui,JPT ?C'est sûr.J'avoue que moi,j'ai essayé de lui donnerune vidéo YouTube.
00:27:36 :Il a parfaitementécrit tous les mots.Même dans le texte,il a écrittous les mots.Même des motsqui étaient incompréhensibles,il a réussi à les deviner.
00:27:44 :Ah,mais peut-être.Je n'ai pas testé.C'est quelque choseque je n'ai pas encore fait.Donc,il y a encore du boulotà faire.J'ai fait confianceà Adriendans ce qu'il dit.
00:27:56 :Donc,à améliorer.J'ai dit totalementl'inverse.J'ai dit quemême les mots pas clairs,il les comprend.Il arrive à les devinerdans le contexte.
00:28:07 :Il arrive à les reproduiremême s'ils ne sont pastrès bien articulés.Déjà dans la compréhensiondu texte,il n'est pas parfaitde la GPT.
00:28:14 :C'est-à-dire quepar exemple,au niveau du code,si je lui balance un projeten disantcode-moi le jeu Risken Pythonavec une interface,etc.,
00:28:23 :il ne va pas marcher.Ou il va y avoir des bugs,il va falloir le guider,etc.Donc,il n'est pas encore à 100%.Il ne sait pas encorefaire des chosesqui sont...
00:28:32 :Il sait faire des chosespuissantes,détecter des choses,etc.,mais on peut toujoursaméliorer.Par exemple,si je prends un codede 800 ballas,par exemple,un exemple concret,mon réseau GANqui est en trainde développer,j'aimerais améliorerle scoreparce qu'il manquede la précisionsur des images,
00:28:51 :etc.Je lui ai demandéde me direce qu'il en pensaitet il m'a conseillédes chosesqui étaient...Enfin,c'était un peude l'aberration.
00:29:01 :C'était des trucsà y se planter.Il fallait vraimentque je lui indiqueau fur et à mesure,etc.Je ne sais passi c'étaitau fur et à mesure,etc.
00:29:11 :Je précise.Au final,il n'a pas convergé.Il y a quand mêmedes limites à ce technoet il y en auratout le tempsparce qu'on ne peut pasavoir un trucde parfait à 100%.
00:29:21 :Comme je dis,après,les performancesse calculentd'une IA,qu'on formemachine learningou deep learning.Les scores à 100%,on en est loin.Notamment,en plus,dans la générationpuisque c'estune IA générative,on est loinC'est sûr.
00:29:39 :Je suis totalementd'accord avec toi.Ce qui est assez coolavec ce GPT,c'est que tu peux lui demanderde lui dire de penser,de lui montrerce qu'il a réponduet lui dire« t'en penses quoide ce que t'as répondu ? »
00:29:50 :et qu'il réfléchissesur lui-même aussi.Des fois, ça donnedes trucs mieux,des fois non.C'est assez marrant.Quand on dit « réfléchir »,il faut prendreavec des pincettesparce que du coup,il ne réfléchit paset il ne comprend pas.
00:30:02 :C'est des chosesqu'honnêtement,je fais des fautesmais il n'y a pasde réflexion,il n'y a pas de pensée,il n'y a pas tout ça.
00:30:09 :Nous, on peut le faireparce que nous,on produit des choseset encore,ça serait à doutersi un homme penseou un homme se réfèreà ce qu'il a déjà entendu.
00:30:17 :Une machine,grosso modo,quand je disune phrase,c'est un vecteur,il va comparerles vecteursavec sa base de données.Grosso modo,un rondpour simplifierles chosesà l'extrême.
00:30:30 :Je suis d'accord avec toimais si dans le prompt,tu lui demandesde réfléchir,il va lui-mêmeavec ce tokenréfléchir,comprendrece que ça veut dire.
00:30:39 :Voilà.Ah, il va se référer.Oui, bien sûr,il va se référeret ensuite,il va trouver du détail.Ça,je suis d'accord avec toi.
00:30:47 :Et sinon,tu utilises plutôtPyTorchou l'autre ?J'ai oublié son nom,Vectorflowou un truc comme ça.Alors,il y a la librairie Kerasqui est utiliséepar TensorFlowPyTorch.
00:30:59 :Moi,personnellement,j'ai appris sur TensorFlowet je continueà apprendre sur Kerasparce que je trouve çabeaucoup plusfluide.Après,c'est un avis personnel.
00:31:10 :PyTorch,on n'est pas assez faitmais c'est moins esthétique.Après,c'est une questionde goût,vraiment.C'est comme ceuxqui préfèrentVS Codeà PyCharm.
00:31:21 :Bon,c'est pareil.Mais,oui,j'utiliseTensorFlow.OK,merci.Moi,je suis fait de questions.OK.Et les autresquestions ?Pas d'autres questions ?Par hasard ?
00:31:36 :OK.Bon,mais je pensequ'on peuts'arrêter là,du coup.Si vous n'avez pasd'autres questions,peut-être Joner,je le vois écritdans levocabulaire.
00:31:48 :OK,merci.Bon,c'est toutpour aujourd'hui.Merci à vousd'avoir regardécette vidéo.Merci à vousd'avoir regardécette vidéo.Merci à vousd'avoir regardécette vidéo.
00:32:02 :N'hésitez pasà l'inscrire.Vraiment,j'ai beau et j'ai du temps,donc il n'y a pas de souci.Je prendrai mon tempspour vous expliquer.Si les choses sont pas clairesou quoi que ce soit.
00:32:13 :On se sert beaucoupde l'IApour de l'intellectuel.Codes,textes,etc.J'ai dit Joneret je vais me calmer.Il y a rien,enfin,quelque chose qu'il faut aussi dire,c'est quele motintelligence artificielle,bon,il faut prendre avec des pincettes,il n'y a pas de...
00:32:45 :Enfin,il faudrait redéfinirle motintelligence artificielle.Oui,parce quec'est un truc qui existe,mais on le fait manuellement.Mais après,c'est vrai que côté intelligence,bon,il y a les deux,il y a les deux débatspar rapport à ça.
00:33:01 :Alors,mais on pourrait faire du texte,du travail manuel avec.Ouais,on peut en faire,parce que,en gros,ce qui se passe,c'est quelà,il y a une vidéoqui est sortie,notammentoù il s'est intégréles modèles de GPTdans des robots,directement.
00:33:21 :D'accord ?Alors,je vais essayer de trouverquelque chosequi va me pouvoir un peu...Un petit mot.Tac,tac,tac.Alors,j'ai vu une vidéoqui était vraiment pas mal,où j'étais,mais un peu assourdi,donc vraiment,j'en revenais pas.
00:33:39 :Et en fait,en robot,alors l'apprentissageen robot,c'est encore différent.C'est-à-dire qu'il va pas,enfin,il va utiliser des notionsqu'on appellede l'apprentissagepar renforcement.
00:33:50 :C'est pas du machine learning,enfin,il n'y a pas de l'apprentissagecomme ce que j'ai présenté,c'est autre chose.Il va apprendre en disant,est-ce que ce que je fais,c'est bien ou pas ?
00:33:58 :Il va être récompensé,il va y avoir un systèmequi est complètement différent.L'algorithme derrière,en plus,il est pas...C'est vraiment pas les mêmes.
00:34:05 :Attends,je vais chercher la vidéo,j'essaie de la retrouver.J'attends.Hum...Hum...Hum...Hum...Donc là,par exemple,ceux qui veulent voir,c'est un robot,c'est l'Optimum,c'est le robotqui a été sorti par OpenAI.
00:34:33 :En fait,il va effectuer des actionsen temps réel.D'accord ?Donc là,je ne sais passi tu le sens,mais un humainest face à lui,il va mettredes actionsen temps réel.
00:34:45 :D'accord ?Donc là,je ne sais passi tu le sens,mais un humainest face à lui,il va mettredes actionsen temps réel.
00:34:54 :D'accord ?Donc là,un humainva lui poserdes questionspar rapportà ce qu'il y asur la table.Il va lui demanderde ranger des choses,etc.
00:35:05 :Bon,là,apparemment,la vidéoblague un peu.Je ne sais passi vous en avez...D'accord.D'accord.D'accord.D'accord.D'accord.D'accord.D'accord.D'accord.D'accord.D'accord.
00:35:22 :D'accord.D'accord.Beaucoup plus tard,il va se poserla questionVoilà!Et là,c'étaitvero blancA didire qu'on a,vraiment.Donc là,il y a des petitslags avec le live et tout.
00:35:48 :Mais on acarrément un humain,donc celui qui comprendrale ballanglé,qui demandeLe robot a vuqu'il y avait une pommesur la table.
00:35:57 :Le robot lui a prisla pommeet lui a mis dans la main.Donc vous voyez,vraiment là,il y a du...Là on croiseplusieurs technologies,c'est à dire qu'on ade la perception visuelle,on a de la compréhensionde texte,on a du mouvement.
00:36:10 :D'accord?On a quelque chosequi est assez fluide.D'accord?C'est un ensemblede plein de choses.Et ça,c'est vraimentquelque chosequi est...Moi,je trouve çaque ce que vous pouvezfaire ça,et en plusde manièrebien,ben c'estune bonne stratégie.
00:36:29 :Là j'ai pas...Là je dois...Bon,il y a un petit peudes lags,donc je vous metsla vidéo dans lechannel pour ceuxqui veulent laregarder.
00:36:39 :Bon,voilà,on arrive à des trucsqui sont...Et ça ne faitque progresser.Alors,dansle vocab,un robothumain qui a un...On peut générerdes objets 3Dpour l'impression 3D,non ?
00:36:54 :Alors,euh...Générer des objets3D pour l'impression 3D.Bon,ça doit se faire,je pense.Je n'ai pas...Je ne sais passi c'est possibleou pas.
00:37:05 :Je ne suis pasrenseigné sur la question.Je sais qu'on peutsimuler des moléculesavec des gannes.Ouais,ben voilà,des gannes...On peut simuler aussides visagesqui n'existent pas.
00:37:16 :Avec des gannes,on peut faire des choses...Après,les gannes,il y a des circle gannes,enfin,il y a des trucs...Il y a des variantes aussipuisque tout dépendde ce que vous mettez au milieucomme film.
00:37:27 :Après,ça change de...Franchement,d'architecture.Et puis,la façon dont on fait les choses,bon,il y a toujours...Voilà,dans un ganne,il n'y a pas qu'un seul modèle.
00:37:38 :Il y a...Je ne sais passi le générateurproduit des imagesqui peuvent différenciercomme étant réellesou pas.Bon,ben,voilà,quoi.En écrivant,il y a des questions,il y a des gannes.
00:37:52 :Oui,c'est ça.Alors,c'est double gannes.Les Wasserstein gannes.Elles sont liéessur des probabilités...Enfin,des distancesentre...Entre distributionsdistinctesde Wasserstein.Ouh,là,là,attendez,c'est un peudes...
00:38:11 :des chosescomme...Alors,tac.Voilà,on va montrer un exemple.Les gannes,voilà.Donc,les gannes,là,vous avezun petit truc,voilà.Ça,ce sont des visagesartificiels,on peut dire,du coup,qui ont été crééspar une machine.
00:38:32 :Et ça,c'est bluffant.C'est-à-dire que,ben,maintenant,on ne sait plusreconnaîtrele vraidu faux,quoi.Si vous voyez çadans la nature,par exemple,on se dit,tiens,c'est un zèbre,un zèbrequ'on ne sait pas.
00:38:50 :Bon,ben,c'est des chosesqui...Ça laisse bouffer,quoi.Par exemple,ce qu'on peut faire aussi,c'est,par exemple,voilà,faire des choses comme ça.
00:39:02 :Par exemple,on prend le visage d'Obama,on luisente la coupe,mais vous voyez,en fait,la précisiondans laquelle c'est fait,c'est çaqui fait la puissancedes gannes.
00:39:13 :C'est-à-dire que là,on a vraiment des chosesqui...Que c'est vraimentune personne...C'est à la foisla même personne,mais qu'il y a des trucscomplètement différents.
00:39:22 :Vous voyez,le chat,quand on lui change les yeux,mais pourtant,on n'a pas de bruitqui va s'installertout autourdes yeux,quoi.Il n'y a pas de...
00:39:32 :Ça ne va pas être pixeliséou quoi que ce soit.Ça va vraimentrester net.Et ça,c'est...C'est très,très puissant,quoi.Alors,ah oui,généreusement,ben,ouais,la générationd'objets 3D,ça,j'y connais pas tropen...
00:39:52 :En comment ça s'appelle ?En dessin 3D et tout,j'ai pas...J'ai pas troptouché à ça.Voilà,voilà.Donc là,c'est pour la partieun peu mathématique.
00:40:19 :Les équations,il faut quand même assez...C'est quand mêmeassez poussé en mathsaussi pour comprendrevraiment tout ce qui se passe.Alors après,avec TensorFlowet PyTorch,bon,c'est comme tout.
00:40:30 :Là,vous n'allez pas voirsur l'équation,mais si vous voulezles comprendrepour exactementcomment ça fonctionne,bon,ben là,on rentre dans des trucsun peu plus corsés,quoi.
00:40:42 :Là,il faut avoirVoilà,si vous avez d'autres questions,ceux qui viennent d'arriver,etc.,n'hésitez pas.Alors,tu vas nous faireune introductionsur...sur quoi ?
00:41:07 :Différentes deep learning,par exemple NLP.Alors,NLP,alors,ce n'est pas une...Enfin,comment dire ?Le NLP,c'est une...Il n'y a pas que du...
00:41:21 :Ce n'est pas que du deep learning,le NLP.Le NLP,c'est un domainequi a été utilisé en...Enfin,on utilise le deep learningen NLP.
00:41:30 :En fait,NLP,ça veut direNatural Language Processing.C'est tout ce qui va êtrela génération de langues,en fait.Les langues à partirde l'apprentissagede la langue.
00:41:41 :Euh...Il y a plusieurs domainesde NLP.Après,faire une présentation dessus.Pourquoi pas,mais pas maintenantparce que je n'ai pas...Enfin,on va direque ce n'est pasquelque choseque je fais tous les jours.
00:41:55 :Euh...Là,déjà,le 9 juillet,il y a une...Il y a une...Comment ça s'appelle ?Il y a une présentation,du coup,sur les CNN.
00:42:05 :Après,sur la détection des images,ça,je pourrais vous le faire,donc avec ledu TAL,du traitement...Enfin,du traitement automatique des langues.Euh...
00:42:16 :Ça,je vous en parle,je voulais vous montrerune petite différenceentre, ben,voilà,quand on faitla classification d'imageset quand on faitla classificationavec duShell Learninget du Deep Learning.
00:42:29 :La différence,ça,je pourrais vous faireun petit truc.Je pense que je préviendraipour le fairemi-juilletou fin juillet.Voilà.Si j'ai du temps.
Aucune occurrence trouvée pour « ».