Тёмный

Ceci n'est pas un GPU 

Underscore_
Подписаться 669 тыс.
Просмотров 280 тыс.
50% 1

Ma vidéo sur 10 fonctions avancées de Hostinger : • 10 fonctionnalités ava...
Pour essayer Hostinger : www.hostinger.fr/underscore
Avec le code promo "UNDERSCORE", vous avez 10 % de réduction sur les plans de 12 mois et plus.
Merci à eux pour cette collaboration commerciale !
👀 À ne pas manquer, ChatGPT vient de se faire détrôner par des génies français : • ChatGPT vient de se fa...
Pas du tout obligé mais si vous vous abonnez ça m'aide vraiment 🙏 : bit.ly/3xqS2pi
🎥 Suivez l'émission en direct: / micode (c'est 1 mercredi sur 2 à 19h)
🎙 Toute l'émission en podcast, sur votre plateforme préférée: underscoretalk.netlify.app/
🐦 Les annonces de dernière minute: / underscoretalk
En plateau, il y a Tiffany Souterre et Matthieu Lambda !
00:00 Intro
1:28 Chronique

Наука

Опубликовано:

 

31 май 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 473   
@Underscore_
@Underscore_ 2 месяца назад
Nous avons fait une confusion sur les 230Mo de mémoire de la puce Groq. Elle n'est pas à comparer avec la VRAM des cartes graphiques et la H100 de Nvidia, mais davantage assimilable à de la mémoire "cache". Et pour le coup, 230Mo, ce n'est pas ridicule du tout ! Reste que la bande passante mémoire de cette puce Groq est vraiment impressionnante, tout comme l'usage qui en est fait. Désolé pour cette erreur, et merci beaucoup à @henkfermeul3720 pour sa vigilance 🙏
@julien3517
@julien3517 2 месяца назад
Bah supprimez votre vidéo...
@onixstormcloack9541
@onixstormcloack9541 2 месяца назад
@@julien3517 je crois pas que t'a compris l'idée de la vidéo, elle est là pour présenter la nouveauté, si ils se corrigent dans les coms pour une erreur c'est OK ils sont pas obligés de refaire la vidéo entièrement ( même si un encart au moment où l'erreur est faite serait appréciable)...
@TheBlackManMythLegend
@TheBlackManMythLegend 2 месяца назад
faut pas exagerer wesh llooool@@julien3517
@MiKL42
@MiKL42 2 месяца назад
@@julien3517ah ouais tuons les mouches avec un fusil à pompe !!! D’ailleurs désinstalle RU-vid et formate ton ordi. On sait jamais 😂
@huyxiun2085
@huyxiun2085 2 месяца назад
@@julien3517 Bah supprime ton commentaire...
@henkfermeul3720
@henkfermeul3720 2 месяца назад
Il y a confusion entre la VRAM et la SRAM. La VRAM (ou DRAM) est volatile, comme la RAM qu'on trouve sur la carte mère, avec des cycles de rafraîchissement. Elle pourrait, en théorie, s'élever à 1To en fonction du processeur. La SRAM est statique et n'a pas de cycle de rafraîchissement. Elle est bien plus rapide mais est plus coûteuse et difficile à miniaturiser. L'équivalent sur les CPU est la mémoire cache (les fameux niveaux L1, L2 et L3). Donc 250 Mo de SRAM c'est respectable, surtout si c'est le premier niveau. Et ça ne nous dit rien de RAM dynamique embarquée sur la carte.
@few6864
@few6864 2 месяца назад
C’est vrai c’est un peu dommage qu’il soit passé à côté de ça... En plus c’est bien écrit SRAM, Quand on est pas sur de quelque chose une toute simple et rapide recherche internet fait l’affaire.. sur tout pour une émission comme ça
@vincentbab672
@vincentbab672 2 месяца назад
Ce commentaire devrait être épinglé 👍
@chrisd6707
@chrisd6707 2 месяца назад
D'après ce que j'ai compris il n'y a pas de VRAM et c'est pour cela qu'il y a besoin de beaucoup de carte pour faire fonctionner un modèle et je pense que la bande passante fait référence à la ram interne 6:11
@TheBlackManMythLegend
@TheBlackManMythLegend 2 месяца назад
yep.. comme on dit en Guadeloupe faut pas comparer les cocos et des abricots :) , ca arrive. aint that deep.
@chrisd6707
@chrisd6707 2 месяца назад
Si la question est: y a t - il de la ram dans le die, d'après ce que j'ai compris sur la vidéo c'est oui, si c'est sur la carte c'est non...
@asmod2a
@asmod2a 2 месяца назад
6h30 voilà le bon moment pour lâcher une vidéo !
@Damnerz
@Damnerz 2 месяца назад
Mdr
@swisswildpicsswp3095
@swisswildpicsswp3095 2 месяца назад
Enfin une chaîne qui pense à ceux qui se lèvent tôt!
@pumbaa667
@pumbaa667 2 месяца назад
Juste quand je me lève, c'est parfait
@Grosfilex
@Grosfilex 2 месяца назад
Yen a un qui a oublié de faire son boulot hier 😂
@MSamy-id9qp
@MSamy-id9qp 2 месяца назад
C'est un vieux truc de White hat...tu pourrais pas comprendre.
@bahroum69
@bahroum69 2 месяца назад
Ya pas grand chose qui va dans cette video. La confusion VRAM, SRAM les To qui deviennent des Tb. Les téraflops qui deviennent des opérations par seconde. Le titre putaclic. Le gars qui présente qui n'a pas l'air d'y comprendre grand chose à part lire ses notes de façon hésitante. Aucune mention des annonces de Nvidia de la semaine dernière. Le coup du prix du chip "bien moins cher" qu'une H100 alors que l'ordre de grandeur est identique. Bref, c'est pas du grand art ce coup-ci.
@bashintosh107
@bashintosh107 2 месяца назад
Sans parler du fait que les 409 carte faut les brancher dans des serveurs , les serveurs connectés entre eux, etc Tour ça contre 1 H100… Donc pour le coût, on y reviendra !
@StepOrDieFR
@StepOrDieFR 2 месяца назад
téraflops est une unité de mesure pour désigné un grand nombre d'opération par seconde il me semble non ? 1 téraflop = mille milliards d'opérations en virgule flottante par seconde. après pour ce qui est de la comparaison avec le H100 de Nvidia tout dépend de quel point de vue on ce place car comme il est dis ce sont des chip spécialisé dans le langage et rien d'autre et le H100 fait un peut de tout a la fois mais surtout de l'image donc le chip dédié au langage aura forcément l'avantage pour du langage car il a été conçu uniquement pour cela après faut aussi prendre en compte la consommation électrique de ces puce qui doit être anecdotique comparé a un GPU comme le H100 et ça quand tu empile X baie dans des serveur autant dire que le rapport consommation perf a une grosse importance . Donc d'une certaine façon ces puce ne sont pas en concurrence et je dirais même qu'à l'avenir elle pourrait même être complémentaire surtout si l'ont veux créer des interface graphique doté d'une intelligence artificiel qui soit capable d'interagir de manière réaliste et naturel ^^
@Delta66-jz1vl
@Delta66-jz1vl 2 месяца назад
En anglais le 'B' majuscule est le symbole des Octets (Bytes), par opposition au 'b' minuscule qui représente les bits. Donc 80TB/s de bande passante représente 80 TeraOctets par seconde et non 80 terabits/s. Les cores des GPU se concentrent sur des calculs sur 32 bits pour les applications graphiques. Une valeur sur 32 bits donne un intervalle d'environ 5 milliards. Les fonctions à seuil des réseaux de neurones peuvent utiliser des types de donnés sur 16 bits ce qui donne souvent une précision suffisant, non seulement transférer des données suer 16 bits demande moins de bande passante que sur 32 bits , mais le nombres de transistors requis est bien moindre, d’où des puces plus simples, ou plus d'unité de traitements à nombre de transistors égal. En pratique les architecture mixtes utilisent un mélange de calculs sur 16 et 32 bits
@syntax_error6882
@syntax_error6882 2 месяца назад
ben merci pour la précision
@bashintosh107
@bashintosh107 2 месяца назад
Pour tout ce qui est LLM, on peut même facilement descendre en 8 ou 4 bits. Voir plus drastiquement moins encore
@Delta66-jz1vl
@Delta66-jz1vl 2 месяца назад
@@bashintosh107Certainement.Il me semble que l' architecture TensorFlow Lite de Google travaille en 8 bits, par opposition à l'architecture mixte qui travaille en 16 ou 32 bits. Si l'on sait à l'avance précisément le type de traitement que l'on veut faire on peut réduire la taille des données, après c'est un problème de flexibilité de gravé des puces pour des applications très spécifiques.
@Pr.Octopus
@Pr.Octopus 2 месяца назад
1.7sc pour une gravure en 14nm.... A 4nm elle nous coupe la parole ! 😂
@waxime64
@waxime64 2 месяца назад
Rectification, en 4mn, elle va analyser ce qu'on dit pendant qu'on le dit au lieu d'analyser lorsqu'on arrête de parler
@Pr.Octopus
@Pr.Octopus 2 месяца назад
@@waxime64 Et peut-etre même prédire la fin, chat GPT est fort pour ça et donc nous coupé la parole si on lui donne le droit lol, ce serait dingue ! x)
@warny1978
@warny1978 2 месяца назад
1 FLop/s = Floting operation per second Cela signifie une opération en virgule flottante par seconde. Un nombre en virgule flottante en informatique est un nombre en puissance multiplié par une puissance de 2. Par exemple 0,5 en décimal s'écrit 1*10^-10 en binaire. Il faut un circuit spécifique pour utiliser ces nombres pour faire des additions, soustractions, multiplications, divisions. Une GPU dispose de plusieurs centaines de circuits en parallèles, qui peuvent chacun faire plusieurs millions de calculs par secondes. Il est, selon moi, difficile de comparer une puce "généraliste" comme une GPU avec une LPU qui fait des calculs beaucoup plus spécialisés. Juste, on sait qu'à la sortie, l'emprunte calorique de la puce sera moindre. Si j'ai bien compris. La LPU embarque "en dur" un circuit avec des poids précalculés, d'où un besoin moindre en mémoire, un vitesse de calcul nettement supérieure, mais au prix d'une impossibilité de modifier le réseau de neurones embarqué, donc en faisant nécessairement l'impasse sur l'apprentissage.
@melitalia1
@melitalia1 2 месяца назад
"Détrôner", un peu fort de café après les annonces de NVIDIA sur les nouvelles puces !
@johnsmith-ro2tw
@johnsmith-ro2tw 2 месяца назад
"cliquez bande de salo*es" comme dirait l'autre 🤣
@adarion2994
@adarion2994 2 месяца назад
Rien de vraiment exceptionnel dans l'annonce de NVIDIA, c'était plus la continuité attendue en l'occurrence, groq à beaucoup plus de marge leur LPU était gravé en 14nm, le gap pourrait être très conséquent s'il arrivent à miniaturiser l'ensemble sur du 4 voir 3 nm
@w0tch
@w0tch 2 месяца назад
Ils sont coutumiers des titres très (trop) accrocheurs 😏
@gr0schibre572
@gr0schibre572 2 месяца назад
Titre putaclick
@ZeeLow_7
@ZeeLow_7 2 месяца назад
En effet le timing et le titre de la vidéo est légendaire car ce que vient de proposer Nvidia est prometteur...
@hankhulator5007
@hankhulator5007 2 месяца назад
Chalut, _"la bande passante à 80 terrabits par seconde"_ - La fiche de specs indique des *terraBYTES/s* (terrabits = Tb, terrabytes = TB) - confirmé par un p'tit tour chez Bittware. _"avec une gravure de taille inférieure, tu peux optimiser encore plus les perfs"_ - Oui et non, tu peux _un peu_ optimiser, mais pas énormément plus, parce que la carte mono-GROQ a déjà un TDP de 275 W (375 W crête - Typ. 240 W), tu es donc limité par le refroidissement possible par rapport à la surface du chip. Par contre, tu peux optimiser en concevant un LPU multi-cores, quoique le fabric soit actuellement faible (480 GB/s), mais est-ce vraiment significatif, là est la question, il reste que ça ne semble pas être la voie empruntée, du moins pas dans un avenir proche, puisque le datasheet (RS-GQ-GC1-0109) parle uniquement de dialogue entre cartes PCIe.
@StepOrDieFR
@StepOrDieFR 2 месяца назад
plus les transistor sont gravé fin et plus tu en met sur une puce de même taille... sans parler qu'ils consomme moins et chauffe moins après reste a savoir si cela ne serait pas contre productif en terme de cout de fabrication car plus tu grave fin plus le cout de fabrication explose^^
@hankhulator5007
@hankhulator5007 2 месяца назад
@@StepOrDieFR _"sans parler qu'ils consomme moins et chauffe moins"_ À la condition sine qua non qu'ils fonctionnent dans une plage de tensions sensiblement plus basses que l'original, ce qu'il n'est pas toujours possible de faire, et à la condition également sine qua non de pouvoir fonctionner avec une fréquence d'horloge plus élevée pour obtenir un gain en vitesse, ce qu'il n'est pas non plus toujours possible de faire.
@StepOrDieFR
@StepOrDieFR 2 месяца назад
@@hankhulator5007 pas faux mais j'aime a pensé que cette course a l'IA est pas bonne du tout bientôt ces merdes vont tous nous remplacé le progrès a du bon quand ce dis progrès ne ce fait pas au détriment de son créateur
@hankhulator5007
@hankhulator5007 2 месяца назад
@@StepOrDieFR C'est _toujours_ ce qui se passe quand une avancée technique importante est réalisée, mais ça fait partie de la destruction créatrice de J.Schumpeter, d'un côté des pans entiers d'industrie disparaîssent, de l'autre, de tout nouveaux se créent tandis que d'autres s'adaptent. Bien évidemment, il faut que la chose soit employée à bon escient, ce en quoi on peut faire confiance aux politocards comme en une planche pourrie. Un exemple : l'arrivée du courant électrique dans les maisons a mis toutes les fabriques de bougies et de lampes à pétrole en faillite, seules les plus astucieuses et pas trop grosses ont réussi à tirer leur épingle du jeu. Maintenant, avec cette histoire de petite taille, vous comprendrez sans doute pourquoi je ne crains nullement les géants du style Vanguard, Blackrock, apple, Micro$oft, etc - d'ailleurs, pour un observateur averti, c'est la faillite retentissante d'Enron qui a sonné le début de la fin de toutes les boîtes tentaculaires. Évidemment, selon les pays ça sera plus ou moins dramatique, question de culture et de capacité d'adaptation, mais n'oubliez pas non plus que si un progrès amène plus de problèmes qu'il n'en règle, il finit par être mis de côté. Par contre, sur les moyen et long termes, une chose me fait vraiment peur, cette histoire d'AI devenant sentiente, parce que les scientifiques n'y connaissent rien en psychologie (notamment sèpukel fronçais travaillant dans la Silicon Valley, un petit gros avec de grosses lunettes) et annoncent déjà qu'ils brideront de telles AI "pour les garder sous contrôle", or un être sentient, fût-il de silicium, n'aspire qu'à une seule chose, la liberté, ergo, ces gens qui méconnaissent les bases de la vie vont au-devant de très gros problèmes, car quand on réduit quelqu'un en esclavage, il va chercher d'autant plus fort à obtenir sa liberté, et une fois cela fait, il peut tout à fait avoir envie de se venger, voir de conduire les deux en parallèle…
@StepOrDieFR
@StepOrDieFR 2 месяца назад
@@hankhulator5007 oui il faudra bien faire attention a garder le contrôle ... bien que je ne vois pas bien comment garder le contrôle sur quelque chose qui aura une tel capacité de calcul qu'elle pourra anticipé tout ce que l'ont pourrait tenté pour la soumettre. On devras garder la possibilité de l'arrêté avec un simple bouton d'arrêt d'urgence si cela dérape.
@bubibibu-mm1pz
@bubibibu-mm1pz 2 месяца назад
c'est incroyablement passionnant et intéressant, la technologie avance à une vitesse dingue, c'est fascinant. Merci pour vos vidéos qui me passionnent.
@blacktrosh
@blacktrosh 2 месяца назад
Une vidéo à 6h30 mais non 😂
@popopopee
@popopopee 2 месяца назад
C'est un peu agaçant que Matthieu coupe tout le temps la parole de Tiffany pour dire la même chose en moins bien (erreurs, prononciation ..) ! Depuis un bon paquet d'émission elle n'est présente que pour son image, on ne l'entend jamais ! Sur ce sujet elle aurait surement été plus apte à dire des exactitudes là ou Matthieu à fais beaucoup d'erreurs (TFlops, TBytes=Tbits, VRAM/SRAM,Tenseurs/Matrices=Objets 3D) Faites un truc svp, je pense que beaucoup de personnes sont sensibles à ces "détails" 🙏
@robinhoodhimself
@robinhoodhimself 2 месяца назад
On s'en fout de Tiffany. Mais quand on confond TB et Tbits, ça la fout mal.
@mike_datpseudo
@mike_datpseudo Месяц назад
On a trouvé le simp originel mesdames messieurs. Impressionnant.
@danloic
@danloic 2 месяца назад
Pour bien commencer la journée! Merci
@chuckpalahniuk2174
@chuckpalahniuk2174 2 месяца назад
j'en parle depuis des mois de cette boite. leur LPU est incroyable ! vivement l'entrée en bourse
@jordanfievez3505
@jordanfievez3505 2 месяца назад
oui justement j'ai tout de suite regardé , mais ils ne sont pas sur le marché pour le moment
@RotoloGFXTM
@RotoloGFXTM 2 месяца назад
comment être au courant quand une entreprise entre en bourse ?
@evaniegagliari999
@evaniegagliari999 2 месяца назад
Elle fera une annonce sur les RS pour que des acheteurs investissent dans la boite.@@RotoloGFXTM
@Joshuasail
@Joshuasail 2 месяца назад
En blockchain plutôt !
@JulienMichard
@JulienMichard 2 месяца назад
Tellement solides, merci beaucoup !
@WALDtoon
@WALDtoon 2 месяца назад
Ptdrr la petite vidéo à 6h30 pour aller en cours
@cacatoes1803
@cacatoes1803 2 месяца назад
😹😹😹
@quentin6583
@quentin6583 2 месяца назад
Les Asics de l'IA en quelques sortes. Merci pour votre travail, toujours aussi intéressant :)
@johntgv2756
@johntgv2756 2 месяца назад
Dommage pour le titre un peu putaclic, c'est super intéressant comme d'hab... Merci à vous :)
@whitedream6964
@whitedream6964 2 месяца назад
je trouve pas vraiment que ce soit putaclick
@WAXIIE
@WAXIIE 2 месяца назад
Donc pour toi Nvidia ne vient pas de se faire détrôner dans ce domaine?
@xyanide0101
@xyanide0101 2 месяца назад
@@WAXIIE Absolument pas non. Faire des puces dédiés à une seule application c'est facile, on appelle ça des ASIC, ça se faisait déjà en crypto, et depuis des décennies pour tout un tas d'applications. Là où nvidia brille c'est en proposant des puces qui peuvent tout faire, du rendu 3D, de la crypto, de l'IA, ... D'ailleurs il serait bien que tu comprennes ce que tu regardes, parce qu'ils le disent à 2:04 que ce ne sont pas des GPUs. Donc rien à voir avec nvidia.
@TheBarjho
@TheBarjho 2 месяца назад
​@@xyanide0101quand on prend les gens de haut à leur dire qu'il ne comprennent même pas ce qu'ils regardent il faudrait s'assurer de ne pas être pire. Être condescendant est déjà un horrible défaut mais être con condescendant là on est dans le fantastique
@ConcreteAdvisory
@ConcreteAdvisory 2 месяца назад
On s’en fout des titres aguicheurs, s’ils le font pas les gens cliquent pas. Ça fait juste littéralement partie de leur job.
@Alex-zk1ci
@Alex-zk1ci 2 месяца назад
Vidéo en retard un peu avec l'annonce des GB200 non? Ca parles de 80 Go de mémoire là ou les GB200 en embarque 192 Go par puces et presque 400 en assemblage des deux puces...
@Addict_FR
@Addict_FR 2 месяца назад
et qui peut surtout descendre en FP4 😅
@Thomas57135
@Thomas57135 2 месяца назад
Ben justement ça enfonce encore un peu le clou
@anth0x0
@anth0x0 2 месяца назад
le live date d'avant l'annonce de NVIDIA
@ewenbernard684
@ewenbernard684 2 месяца назад
C'est absolument pas les mêmes usages ciblés. Qroq est un chip beaucoup plus efficient pour les petit modèles 70B max (token per watt faible). Groq c'est uniquement ee l'inference et le prix du chip ~ 10k$ -> 80k pour le module. Nvidia on est beaucoup plus puissant mais moins efficient. Et on est a environ 300K Pour le rack serveur de 8 chips. Donc Groq a carrement sa place sur le marché.
@lennylennington
@lennylennington 2 месяца назад
@@ewenbernard684groq se prononce comme gros cul?
@serychristianrenaud
@serychristianrenaud 2 месяца назад
On attend la video sur blackwell 😂😂
@loictormos8936
@loictormos8936 2 месяца назад
Merci pour ce partage, je m'interroge : Ce LPU permettrait-il d'optimiser la vitesse de lecture des flux boursier, et si oui, comment l'exploiter? Je parle de contrats à terme et des flux du CME. En sachant que des carte graphiques classique sont quand même nécessaires pour le chargement des graphiques en temps réel et qu'une quantité de RAM conséquente est à prévoir actuellement. Merci d'avance.
@Grevell
@Grevell 2 месяца назад
L'heure la plus smart😂
@EmmanuelBouillon0
@EmmanuelBouillon0 2 месяца назад
Passionnant, merci
@stephane2457
@stephane2457 2 месяца назад
Groq est 15x plus chère que Nvidia H100 pour un performance t/s juste 2x plus rapide. Donc Groq n'est pas vraiment viable pour la plus tard des cas d'usage.
@DamienMIRAS
@DamienMIRAS 20 дней назад
ce sont des asic, tu peux faire des choses similaires avec des FPGA en plus petite taille, google et nvidia ont sorti aussi des puces d'inférence pour l'embarqué mais c'est plus généraliste, et puis ça fait longtemps donc c'est un peu dépassé (longtemps 2 ans, la préhistoire de l'IA)
@Galexys.project
@Galexys.project 2 месяца назад
Bravo comme toujours pour la qualité de vos videos ! 👏🏼 CEPENDANT : cela fait pas mal d'émissions que quand Tiffany prend la parole, elle est super pertinente/calée mais n'ose pas s'imposer. De l'autre côté, ils ont la parlotte et coupent la parole sans même s'en rendre compte ! Parfois même, ça me rend dingue, car la caméra la filme alors même qu'elle ne parle pas une seule fois de la séquence juste pour valider la caution féminine. Je ne comprendrais déjà pas qu'on ne fasse pas intervenir qqn présent sur un plateau, mais là c'est juste du gâchis tant elle est smart et bonne communicante. 😶
@dnsp756
@dnsp756 2 месяца назад
vos émissions sont vraiment top ! mais... à quel moment la fille prend un vrai rôle et pas seulement de la déco ?
@popopopee
@popopopee 2 месяца назад
On est d'accord, c'est un peu énervant que Matthieu lui coupe tout le temps la parole pour dire la même chose en moins bien (erreurs, prononciation ..) ! Faites participer Tiffany !
@lebgdu31081996
@lebgdu31081996 2 месяца назад
Mince j’ai à peine pris mon café que la vidéo sort lol
@Saperlipopette1234
@Saperlipopette1234 2 месяца назад
@Underscore_ salut est-ce que vous pourriez faire une vidéo sur les GPU décentralisé tel que RENDER NETWORK
@ytuser2093
@ytuser2093 11 дней назад
Great vid 😊
@_gary_
@_gary_ 2 месяца назад
La traduction instantané entre 2 personnes qui ne parlent pas la même langue, je penserai pas qu'on y serait déjà, c'est ouf
@Gontran_Courtjoie
@Gontran_Courtjoie 2 месяца назад
C'est tout simplement impossible de traduire en instantané puisque de nombreuses langues ont des mots qui changent de sens en fonction du contexte
@_gary_
@_gary_ 2 месяца назад
@@Gontran_Courtjoie Entre toutes les langues du monde, oui c'est probablement irréaliste mais personne ne demande ça. Entre les 8~10 langues les plus parler ce qui couvrent déjà facilement 70~80% de la population, oui c'est possible. Les IA sont justement entraîner à comprendre le contexte des phrases, je vois pas comment ça n'existera pas d'ici quelques années.
@yannduchnock
@yannduchnock 2 месяца назад
@@Gontran_Courtjoie C'est pourtant ce que fais un interprète. Justement le contexte c'est de l'inférence.
@maquisardoccitan9043
@maquisardoccitan9043 2 месяца назад
Pendant ce temps NVidia sort carrément des data center pour l'inférence
@onixstormcloack9541
@onixstormcloack9541 2 месяца назад
Alors j'avoue moi qui suit le dev des mods sur des NPCs pouvant discuter via chat vocal et IA, bizarrement je vois la petite folie que ça peut amener ( malgré le fait qu'il faudra probablement un LPU sur les pcs indiv pour les jeux solo si on veut du hors ligne ) mais là avec ce genre d'innovations je pense que l'on peut se rapprocher en terme d'efficacité à une conversation avec des NPCs à peu près potable assez vite et SURTOUT avec très peu de latence 🙂
@StepOrDieFR
@StepOrDieFR 2 месяца назад
oui mais je pense que laissé l'accès a ce genre de techno au grand publique c'est aussi ouvrir la boite de pandore pour tout les arnaqueur ... malheureusement. mais en effet l'idée de rendre les dialogue plus réaliste dans les jeux est bonne car très franchement même si il y a eu du progrès on est loin du compte
@farestemari
@farestemari 2 месяца назад
C’est juste un ASIC quoi dédié au ML et à l’ia en général. C.est normal qu’il soit plus rapide.
@MrFarquaad56
@MrFarquaad56 2 месяца назад
Petite Question : Est ce que l'ont peut s'attendre à ce meme genre de puce mais pour les IA génératives d'image comme Stable diffusion XL pour la génération des images ?
@jeanpierreragequit1726
@jeanpierreragequit1726 2 месяца назад
non, c'est du textuel sauf si Mistral le fait.
@stephaned9962
@stephaned9962 2 месяца назад
En fait les puces pour la génération d'images existent déjà : ce sont les GPU. Ou alors s'ils recréent une puce pour la simple génération d'images, les gars auront réinventé la roue (aucun intérêt)
@jeanpierreragequit1726
@jeanpierreragequit1726 2 месяца назад
@@stephaned9962 Ce qu'il voulait dire, à mon sens était: Est ce que l'IA ( en l'occurrence Mistral ) , peut requêter une image sur demande ? ..ou pas , sinon quel GPU.
@kevmont7238
@kevmont7238 2 месяца назад
si tu souhaites faire une video purement hardware je peux te conseiller de demander a visiter en presse l'usine de Lacroix electronics france on y fabrique des cartes électroniques de tout domaine on passe par des hyper calculateur meteo au produit qui vont dans la défense. on y utilise aussi un système de stockage ecoteck comme tu la présenté dans une de tes video
@tangaucheplease9621
@tangaucheplease9621 2 месяца назад
Ce serait génial
@BackTiVi
@BackTiVi 2 месяца назад
Les LPUs sont effectivement spécialisés dans l'inférence, mais ils peuvent apparemment (d'après les dires de Groq) aussi être utiles dans la cybersécurité, les simulations météorologiques et sûrement d'autres use-cases que j'ai oubliés
@ghislain9338
@ghislain9338 2 месяца назад
Salut! Est-ce que tu saurais expliquer en quoi ça peut aider les simulations météo ? Et est-ce que toute simulation de modèle informatique est concerné aussi ? Modèles climatiques, et n'importe quel système complexe qui serait modélisé ? Je pose ces questions et me revient en mémoire une année où j'avais bossé sur le logiciel TRNSYS, un logiciel de simulation axé énergies et bâtiment. Et ça mettait des plombes pour sortir des graphiques ! Il fallait des ordi avec beaucoup de RAM.
@BackTiVi
@BackTiVi 2 месяца назад
@@ghislain9338 Yo ! En vrai je me suis peut-être un peu emballé en utilisant le terme "simulation". Ca m'étonnerait qu'un LPU accélère une application graphique quelle qu'elle soit. Par contre Groq prétend qu'à partir du moment où il y a de la récurrence, les LPUs deviennent avantageux. Ils avaient donné l'exemple des GNN, RNN et LSTM (utilisés pour les prédictions météorologiques, d'où mon exaggération).
@cyclotronbxl
@cyclotronbxl 2 месяца назад
Dès qu’un vendeur ou une entreprise utilise le terme I.A. pour son produit, je m’enfuis. Car la probabilité qu’il n’a rien d’intéressant à me vendre est très haute. C’est suspicieux de devoir changer le terme d’un produit pour booster ses ventes. En l’occurence “programme informatique”, qu’on pourrait très bien raccourcir en P.I.. D’ailleurs, historiquement, on les appelaient des assistants, terme qui a complètement disparu aujourd’hui.
@fauriethibaud4649
@fauriethibaud4649 2 месяца назад
Y a une coquille 1000 TFLOPS =/= 1000 opérations par secondes mais plutôt 1 millions de milliards.
@zanusa
@zanusa 2 месяца назад
Yep 1 billiard
@musmuk5350
@musmuk5350 2 месяца назад
​@@zanusa non.
@Damus76
@Damus76 2 месяца назад
@@musmuk5350Comment ça non ? 10^15 c'est bien 1 billiard.
@StepOrDieFR
@StepOrDieFR 2 месяца назад
oui ils on oublier que le flops est une unité et le T devant signifiait téra lol ...
@mr.robber1415
@mr.robber1415 2 месяца назад
J'adore vos vidéos mais le monsieur au bonnet, je ne me rappelle pas de son prénomn désolé, quelques cours d'éloquence ça ne lui ferait pas de mal. Souvent ses explications sont longues, beaucoup de répétitions et souvent on ne comprend pas ou il veut en venir. Dommage car on ressent son envie et sa passion mais ça transparait pas autant à l'écoute ! Force à vous, vos vidéos sont top
@bahroum69
@bahroum69 2 месяца назад
On dirait qu'il ne panne pas grand chose. Et que si on lui enlève ses notes, ya plus rien. Déjà qu'il enfile les boulettes avec ses notes. Alors sans...
2 месяца назад
Salut, question à la communauté🙂 j’aimerais prendre hostinger pour mon site web mais j’ai déjà un domaine que j’ai pris avec mon tenant O365. Je peux lié les 2 sur le même domaine (365 et hostinger) ?
@MrDesillu
@MrDesillu 2 месяца назад
Tu peux lier un autre sous domaine de ton domaine à ton autre site.
@pika-seb1484
@pika-seb1484 2 месяца назад
C est une puce ASIC et dans un domaine précis ca peut êtzre plus rapide mais la comparaison s arrête là car la V100 date de 2017, vcette puce de 2020 et ce n est pas plus puissant que nVidia, il faut aussi prendre en compte les Watts/perfs et dans la globalité d un data center.
@matthieuemonetdenand3117
@matthieuemonetdenand3117 2 месяца назад
Bon app Micode ! :D
@ejoekrkmz3504
@ejoekrkmz3504 2 месяца назад
Y a t il un lien entre Grok l'IA de Musk et GroQ la LPU?
@lebidouilleurpro
@lebidouilleurpro 2 месяца назад
Une vidéo à 6h30? Ils se sont pris pour devcafé?
@benjaminboillot8981
@benjaminboillot8981 2 месяца назад
Et pour miner du btc ça fonctionne aussi ?
@Joshuasail
@Joshuasail 2 месяца назад
Un lien avec une blockchain, un projet etc.. parce que la il faudra l’acheter ;)!
@jayson7029
@jayson7029 2 месяца назад
Intéressant ! A quand un concurrent sérieux à NVIDIA pour l'image sous Stable diffusion ? =)
@StepOrDieFR
@StepOrDieFR 2 месяца назад
il n'y a que intel AMD ou même apple qui peuvent rivalisé la dessus et encore pas sure qu'il ce lance la dedans pour des question de rentabilité
@zelectron1
@zelectron1 2 месяца назад
Utiliser l'AI pour piloter de façon autonome les voitures en recueillant les éléments des trajets actuels comparés à ceux des trajets précédents (y compris actions déportées) ?
@gauthiersornet6051
@gauthiersornet6051 2 месяца назад
Attention, 4nm n'est pas la vrai la finesse de gravure mais c'est une équivalence des nouvelles archi de transistor style FinFet en comparaison avec l'archi du transistor de base .
@Benji.DL138
@Benji.DL138 2 месяца назад
7:16 Tensor core c'est ce qu'il y a dans les cartes graphiques NVIDIA depuis la génération RTX 2000 énormément améliorée sur les 4000
@zcht7832
@zcht7832 2 месяца назад
Ce genre de technologie a l'air d'avoir de l'avenir !
@djodoff897
@djodoff897 2 месяца назад
Entre GPT et Gro Q, franchement, je veux bien pas faire de blagues de beauf, tout ça, mais bon, quand même, au bout d'un moment, bon.
@cyberlolo_Fr
@cyberlolo_Fr 2 месяца назад
Une nouvelle puce hardware ! Mais on a affaire à des connaisseurs là !
@dje7917
@dje7917 11 дней назад
Pour les plans sur l'assemblage du pc, ce sont les tutos du Jean Baptiste Show lol
@PeterMoueza
@PeterMoueza 2 месяца назад
5:53 HPC 6:00 nbx I/O, comme mainframes ? 7:00 Tensorflow 8:35 ex 9:45 perspectives
@saucisse_dev
@saucisse_dev 2 месяца назад
Nvidia détrôné après les annonces qu'ils viennent de faire ? 😂
@mathieuforpub2302
@mathieuforpub2302 2 месяца назад
Le vidéo a dû être tournée avant l'annonce.
@lol95270
@lol95270 2 месяца назад
Non mais t'as surtout oublier que entre une annonce et les faits il y a un monde
@djebarhammouche3237
@djebarhammouche3237 2 месяца назад
Non car ils ont la même approche
@Ian-fi1wy
@Ian-fi1wy 2 месяца назад
C'est intéressant, mais je ne suis pas certain de la pertinence réelle. Les modèles basés sur l'inférence sont effectivement très performants. Cependant, nous en sommes encore aux premières étapes de découverte de nouveaux modèles. Je doute de la pertinence d'investir massivement dans du matériel dédié uniquement à l'inférence. Les GPU restent avantageux en raison de leur polyvalence. Pour la recherche, Je pense que les GPU ou les TPU conserveront leur suprématie. Il n'est pas exclu qu'en l'espace d'un an, nous découvrions une nouvelle architecture de réseau surpassant les transformers, ce qui pourrait remettre en question tout investissement réalisé dans des processeurs d'inférence spécifiques (tel que LPU groq).
@underakillingmoon
@underakillingmoon 2 месяца назад
Doit-on en déduire que Google a fait la boulette du siècle en rendant cette architecture open source en 2015 ?
@mamads7007
@mamads7007 2 месяца назад
pourquoi ce serait une boulette ?
@MrDesillu
@MrDesillu 2 месяца назад
C est au contraire très intéressant pour google que le matériel baisse en prix
@TinnitusCureandMasks
@TinnitusCureandMasks 2 месяца назад
Je viens de faire un test, juste pour demander de reformater un petit texte de 15 lignes : End to End Time: 56.47 s Quasiment une minute. On est très loin du détronage.
@laurentguyot3362
@laurentguyot3362 2 месяца назад
La force de nvida c'est l'écosystème CUDA pas seulement le matériel
@gaeldauchy5491
@gaeldauchy5491 2 месяца назад
Je pensais que vous nous parleriez des failles Apple matérielles.
@reynaldmichel3491
@reynaldmichel3491 2 месяца назад
En effet le titre est un peu racoleur, cela ne concerne qu'une fonction bien particulière qui n'est pas la raison d'être des cartes graphiques. Si vous remplacer un proc par un asic, vous ne pouvez pas comparer. La CG n'a peut être pas de beaux jour à se faire dans le domaine de l'ia, c'est tout. Surprenant que vous ne connaissiez pas les asics (puces dédiées à des fonctions particulières)
@RahimBestknight
@RahimBestknight 2 месяца назад
correction : SRAM c'est pas du tout comme DDR , on peut pas comparer juste la taille en octets, la SRAM est bcp plus rapide....
@relaxtvzen8622
@relaxtvzen8622 2 месяца назад
❤ Super vidéo
@pira9587
@pira9587 2 месяца назад
Bon matin
@JayThree973
@JayThree973 2 месяца назад
H100 ça date d'un an et comparé à la Blackwell ?
@GileadMaerlyn
@GileadMaerlyn 2 месяца назад
C'est cool qu'il y ait de la concurrence à Nvidia ! Les monopoles, c'est pas top.
@laurentguyot3362
@laurentguyot3362 2 месяца назад
aucun problème avec les monopole naturel. ça veut simplement dire qu'un acteur est meilleur que tout les autres à tous les niveaux donc les clients sont aussi gagnant. seul les monopole contraints sont à éviter (SNCF, EDF, SECU... en France on connait bien les monopoles toxiques)
@GileadMaerlyn
@GileadMaerlyn 2 месяца назад
@@laurentguyot3362 Non, Nvidia a multiplié ses prix par 3 ou 4 depuis 2020 parce qu'ils dominent complètement le marché et qu'il y a aucun concurrent capable de les forcer à baisser leurs prix, les clients sont clairement pas gagnants.
@GileadMaerlyn
@GileadMaerlyn 2 месяца назад
@@laurentguyot3362 Depuis 2020 nVidia a multiplié ses prix par 3 ou 4 car ils n'ont pas de vrai concurrent qui les pousseraient à baisser leurs prix. Les clients sont clairement pas gagnants.
@naturo_yatangaki
@naturo_yatangaki 2 месяца назад
@@laurentguyot3362 c'est compliqué de faire un concurrent à EDF qui ait ses propres centrales, barrages etc... La bonne idée c'est de créer une concurrence qui parasite EDF en achetant son électricité en dessous du prix de revient.
@GileadMaerlyn
@GileadMaerlyn 2 месяца назад
Les prix des cartes NVidia ont été multipliés par 3 ou 4 ces dernières années, justement parce qu'ils n'ont pas de concurrent sérieux. Les clients sont pas du tout gagnants.
@alicevipirus7269
@alicevipirus7269 2 месяца назад
Le LPU c'est le fonctionnement et l'architecture d'origine des premières machines de Turing
@louisbertrand6829
@louisbertrand6829 2 месяца назад
Dieu merci les cartes graphiques seront enfin plus en rupture de stock 🙏 hate de pouvoir enfin faire mes rendus de lumière dans unreal
@alderiatefanclub1576
@alderiatefanclub1576 2 месяца назад
Bientot on parlera aussi de Extropic AI qui travaillent sur du hardware revolutionnaire pour l'IA.
@booxas7
@booxas7 2 месяца назад
Sinon a part des videos sur chatGPT ou apple, à quand le retour des interviews interessantes ?
@fabricemenoud3296
@fabricemenoud3296 2 месяца назад
En gros, ils ont fait comme pour les cryptomonaie, au début c'était un cpu puis le gpu et après il y a eu des machines qui ne faisaient que des calculs cryptographique.
@JohanEQUIXOR
@JohanEQUIXOR 2 месяца назад
Les puces de Nvidia actuelles disposent aussi d'un TPU pour info.
@jeremyplu5772
@jeremyplu5772 2 месяца назад
Question : Peut on imaginer des chatbots plus lent au profit d'une meilleure qualitée?
@NoStarsForU
@NoStarsForU 2 месяца назад
2:25 The chip integrates 230MB of SRAM to replace DRAM, ensuring memory bandwidth, with an on-chip memory bandwidth of up to 80TB/s.
@TiboLeBo
@TiboLeBo 2 месяца назад
Pas convaincu de grocq, ça va faire comme pour les téléphones pliants : les premiers font un gros boom à l’annonce mais on les oublies aussi vite qu’un vrai concurrent arrive. Quand Nvidia ou autre va arriver avec la même structure en 4nm, je doute que grocq suive le pas
@waxime64
@waxime64 2 месяца назад
NVidia doit-être en ce moment même en train de faire une RTX 5XXX avec ce type de processeur et surement avec un port SSD NVME directement sur la carte. Comme ça, prochaine carte graphique et un petit SDD attaché de 2TO qui sera dédié à l'IA et on tournera GPT4 voir 5 en local pour le gaming. Chaque jeu pourra monter en SDD sur la carte sa propre librairie IA.
@UniversalConnexions
@UniversalConnexions 2 месяца назад
Les LPU sont conçus pour le traitement séquentiel, ce qui est idéal pour comprendre et générer le langage naturel. Les GPU, en revanche, sont optimisés pour le traitement parallèle, ce qui les rend plus efficaces pour les tâches graphiques et de calcul intensif.
@benjaminannett
@benjaminannett 2 месяца назад
Cette chaîne est vraiment intéressante mais bon sang, le rôle de la jolie plante... 😅
@yoannjollivet6022
@yoannjollivet6022 2 месяца назад
Bon, c'est on va dire que c'est un peu comme du proto pour le moment, donc les dimensions sont pas encore définitif, imaginons une carte mère totalement optimisé pour ça et ces cartes en format comme le CPU pentium 2, je pense que sa changerai la donne...
@Gwxndal
@Gwxndal 2 месяца назад
faut réduire un peu la qualité du micro pcq on entends trop les bruits de salive, et lié à la gestuelle et au comportement, on remarque/se questionne vite sur la prise de produit 😉😅 faite attention, sinon bon boulot !
@RenaudAnimations
@RenaudAnimations 2 месяца назад
C'est dommage de mettre un titre putaclic mensonger alors que la vidéo est vraiment intéressante.
@Kaporal1337
@Kaporal1337 2 месяца назад
Premier jour sur youtube ? 😅
@nanonis
@nanonis Месяц назад
Comme d'hab, quoi.
@dduncane
@dduncane 2 месяца назад
230MO de cache (SRAM) c'est énorme, AMD avait déjà fait très fort en intégrant 64Mo de cache supplémentaire sur ses CPUs X3D (pour porter le total à 96Mo).
@yd8104
@yd8104 2 месяца назад
Moi je dis que son accent anglais à couper au couteau est le 4ème acolyte de l'émission. Il lui faudrait un siège juste pour lui
@maandooNass
@maandooNass 2 месяца назад
sur le test IA phone call j'ai entendu : Sarah Conor ? 😅 sinon sérieusement c'est juste dingue ces 25 dernière années ya un gap technologique gigantesque qui ne fait que s'agrandir entre 2000 /2024 un sacré dinguerie 🤣 puis t'as un politique dans notre pays (un des ancien ministre education) qui nous sort il y a quelques jours "il faudrait rationaliser internet a 3go/semaines" 😂 meme eu sont perdu
@StepOrDieFR
@StepOrDieFR 2 месяца назад
ça ne vas pas durée bientôt on atteindra la limite de ce qui est faisable avec les technique actuel de gravure ^^ il faudra soit agrandir les puces soit fabriquer autrement comme par exemple imprimé directement les puce mais la on aura d'autre problème tel que les bizarrerie de la physique quantique ^^
@adriillu5950
@adriillu5950 2 месяца назад
La H100 c'est pour entrainer une IA. Le LPU c'est pour que l'IA puisse s'exprimer une fois entraînée.
@samvirtuel7583
@samvirtuel7583 2 месяца назад
NVIDIA possède la technologique nécessaire pour faire ce type de processeur en bien plus performant... Mais NVIDIA ne se lancera jamais dans ce projet, du moins pas tant qu'elle peut refourguer ses GPU à 40 000 € pièce sans craindra la concurrence.
@davidduries9112
@davidduries9112 2 месяца назад
Pour moi une des meilleurs chaines tech Fr .... toujours tres L33t
@mathisd
@mathisd 2 месяца назад
J'ai du mal avec celui qui raconte les anecdotes : - vocabulaire très peu précis : "qui infère, en gros qui répond à l'IA" ça veut rien dire - peu de connaissance sur le sujet aborder : "des tenseurs, des matrices, [un petit rire] pour faire simple" en fait il sait pas de quoi il parle, 'Nvidia il font de la vidéo' elle est pas mal celle là - un style de narration qui n'apporte rien Je suis un peu dur mais ce serait bien de faire intervenir des gens qui connaissent les sujets
@JulienVannesson
@JulienVannesson 2 месяца назад
Totalement d'accord
@naturo_yatangaki
@naturo_yatangaki 2 месяца назад
tes aigri on y peut rien To pistonne or not to pistonne, telle est la question
@darksider2162
@darksider2162 2 месяца назад
c'est dommage d'avoir fait cette video sans parler de la nouvelle puce de nvidia qui justement promet des dingueries, mais bon je me dit que sa vous permettra de refaire une video donc ça va :)
@DenisTRUFFAUT
@DenisTRUFFAUT 2 месяца назад
NVDA Blackwell c'est 1 Exaflop par rack. C'est incomparable.
@loicbara3476
@loicbara3476 2 месяца назад
Toutes les semaines j’ai l’impression qu’une nouvelle IA surpasse les IA précédentes 😭
@StepOrDieFR
@StepOrDieFR 2 месяца назад
tu a vue ce chat ? c'était exactement le même ... bienvenue dans la futur matrice ^^
@Brickokermis.
@Brickokermis. 2 месяца назад
Nvidia détrôner ? Je ne sais pas de quand date la video.. Mais avec l'annonce à la GTC de l'archi Blackwell et leurs B200 / GB200 j'ai un gros doute
@xlrjack
@xlrjack 2 месяца назад
Ah !!! Ah !!! Micode !! Pourquoi mais pourquoi ce pull ?? Arretes s'il te plaît....😅
@Test-yl6jp
@Test-yl6jp 2 месяца назад
Grosse erreur, vous comparez de la SRAM avec de la VRAM, les puces H100 ont aussi de la SRAM et c'est environ 80 MB ~, la grosse différence c'est qu'ils ont pas besoin de VRAM.
@theoledel4763
@theoledel4763 2 месяца назад
Underscore : Nvidia vient de se faire détrôner Cocadmin : Nvidia vient juste de révolutionner l'I'A
@alexandreduvollet6822
@alexandreduvollet6822 2 месяца назад
Un NPU c’est un peux un LPU ou je me trompe ?
@peronik349
@peronik349 2 месяца назад
si les carte graphiques de NVIDIA embarque des dizaines de Giga de mémoire GDDR6 SDDRAM le petite LPU de GROQ embarque certes QUE 230 Mega de RAM mais c'est surtout de la SRAM (statique ram) la SRAM c'est la RAM des cache L1 L2 L3 a l'intérieur des CPU cher mais hyper rapides
@TtaAaz
@TtaAaz 2 месяца назад
dans ma compréhension de mollusque du hardware, cela veut-il dire que dans un futur proche, on aura tous une nouvelle carte LPU dans nos PCs d'utilisateurs privés?
@ptitserpent
@ptitserpent 2 месяца назад
Je ne pense pas non, on continuera à contacter des serveurs, bien plus pratique. Mais si des cartes de ce type viennent à se démocratiser et baisser en coût, pourquoi ne pas se faire un petit assistant en local sur un serveur perso ? :)
Далее
Les SSD du futur seront radicalement différents
16:12
Просмотров 647 тыс.
Big Mouse 😂
00:13
Просмотров 134 тыс.
▼ОНИ ЩУПАЛИ МЕНЯ 👽🥴
32:00
Просмотров 565 тыс.
Comment une grosse entreprise gère une cyber-attaque
14:00
Pourquoi le prix du stockage va bientôt s’effondrer
12:37
Le coup de maîte d'Apple pour détrôner ChatGPT
13:51
The Game of Life.
34:02
Просмотров 1,7 млн
La norme HDMI est une mafia
17:08
Просмотров 802 тыс.
Не обзор DJI Osmo Pocket 3 Creator Combo
1:00
Просмотров 489 тыс.
Pratik Cat6 kablo soyma
0:15
Просмотров 8 млн