Vidéo exceptionnelle : quel régale d'écouter un JB Kempf sans aucune langue de bois et plein d'humour, tout comme vous (le lancé de boîte de prod, génie ++) ! Merci ! 🙂
J.B Kempf le genre de gars dont t'es fier qu'ils soit fr et du bon côté. Chacune de ses interventions sont d'une pertinence folle et on apprends tellement de chose. Vivement de le voir plus dans des formats long plutot que dans des passages eclairs ou on sent qu'il st obligé de tronquer sa pensée.
Passionnant la vidéo. Le coup de l'assembleur me rappelle quand en 1993 on codait dans le domaine de la vision en assembleur... Merci :-) Cela m'a fait plaisir
Le codage en ASM n'a pas complètement disparu, et à présent j'en connais 3: JB Kempf, son ami qu'il a cité, et le jeune génie allemand Kaze Emanuar, qui repousse toutes les limites de la Nintendo 64 et son jeu phare Super Mario 64. Il a non seulement réécrit tout le code ASM du jeu en ayant décortiqué chaque ligne, pour l'optimiser au point de tourner à 60FPS sur console sans faire de compromis visuels, mais il en profite pour préparer son projet ultime, le jeu N64 le plus beau, le plus abouti en devenir, Return to Yoshi's Island 64, un résultat inoui de ses longues années passées à apprendre l'ASM et l'architecture interne de la N64 pour en optimiser le moindre cycle de CPU ou de transfert avec le BUS mémoire. Les gens comme Kaze ou JBK et sa team ( qui lui n'oublions pas, nous a apporté ce trésor qu'est VLC ) qui savent coder en ASM disposent d'un pouvoir qui nous échappe tout simplement.
Je pense que tu les idéalise un peu trop, étant moi même codeur en asm , et surtout j'ai poussé la PS2 et la Dreamcast homebrew à ces limites en full asm pour faire de la 3D , et ces machines sont bien plus complexe que la N64, c'est juste un savoir faire. Et je connais plein de bon codeur asm (parce que j'ai créer un Discord de retro programmeur pour les vielles machine) donc y'a pas mal de bon codeur ASM que tu ne connais pas je t'assure ;)
L'assembleur est encore utilisé et c'est normal. Les shaders graphics sont codés en asm, dans les calculateurs moteurs, enfin partout où l'on doit être full opti. J'étais électronicien en F1 et la plupart des capteurs ont des microcontrôleurs en QFN codés en C, mais il y a 20 ans on codait encore en asm dans des grosses puces DIP. Et même encore de nos jours il peut toujours arriver de coder une routine en asm pour être sûr de l'optimisation. Même si le C est déjà presque "low-level" comparé à des langages high-level bien plus gourmands, l'assembleur est le brique élémentaire primordiale :)
@@pulp2560 Faut mieux savoir coder avant de faire de l'asm ! ;) Sinon pour pratiquer je conseille d'y aller avec des petit proc 8 bits (6502 , z80 ou AVR Atmel). RISC-V est aussi un bon début ,vu que de base il a pour but pédagogique pour apprendre l'assembleur et l'architecture des ordis.
@@tomatosbananas1812 L'immense majorité des shaders ou même du code GPGPU n'est pas écrite en assembleur. Une des raisons très simple: ben, tu peux pas, en fait. Les architectures changent d'une marque à l'autre, voire de la génération à l'autre, voire du modèle à l'autre. C'est d'ailleurs pour ça que nombre de joueurs se plaignent de la compilation de shaders dans les jeux. Le modèle de programmation des GPU se prête énormément mieux à la parallélisation de masse, mais c'est un tout autre délire. Sauf qu'il y a quand même les langages haut niveau qui forment la quasi totalité du code GPU que tu verras passer de ta vie: GLSL, HLSL, voire même juste du C/C++/Rust/autre adapté (OpenCL, OpenMP, CUDA, SPIR-V). L'ensemble de mon opinion sur le sujet (pas du tout qu'en réponse à ce message), parce que j'ai l'impression que dans le grand public tech ou même en développement c'est un peu vu comme un coup de baguette magique, puis je trouve que c'est intéressant: - l'assembleur c'est pas magique, une fonction C, même pas forcément micro-optimisée jusqu'au bout mais écrite par quelqu'un avec une bonne intuition va probablement détruire l'assembleur fait main écrit par le péon random qui n'a qu'une connaissance de surface des CPU (ce qui est déjà pas mal) - les compilateurs, c'est des formidables montagnes d'heuristiques et de passes d'optimisation surpuissantes qui ont quand même des limites, y compris incluant les langages de programmation eux-mêmes - ironiquement, C est une limitation assez brutale pour des catégories entières d'optimisations majeures. l'autovectorisation est médiocre dans les compilateurs C malgré des décennies de recherches, par exemple - dans le cas d'utilisation de code haute performance, l'assembleur c'est un dernier recours et c'est généralement pour des bouts de code très spécialisés où t'en as globalement plus rien à faire du temps développeur parce que lol les performances (genre l'ensemble de dav1d, quoi) - pour rebondir sur un point particulier: en embarqué ça se fait aussi mais je dirais que conceptuellement, c'est plus que c'est pour être certain des caractéristiques du code compilé que parce qu'on ne saurait pas atteindre ces perf en C. Puis entre nous c'est un peu une culture chez les dévs embarqués je pense ;) - il y a beaucoup beaucoup de marge d'optimisation entre du code C "naïf", même correctement écrit, et du code C écrit dans l'objectif de faire des perfs, voire en faisant de l'appel aux intrinsics (SSE, AVX etc.) - avoir des connaissances profondes sur ton hardware te permet de comprendre la sortie du compilateur et de comprendre ce qui finit mal optimisé par celui-ci - le dernier point te permet de tomber dans une boucle d'amélioration itérative beaucoup plus productive que de réécrire tout en assembleur, dans la majorité des cas - le dernier point te permet également de construire une intuition forte qui fait que tu vas beaucoup moins galérer que le premier débutant venu en C à faire du code performant - je pense que le delta de "10-30x" dont J-B. parle, c'est entre du C naïf scalaire et l'assembleur. Le delta avec du C agressivement micro-optimisé qui fait appel à des intrinsics est probablement bien plus faible. La question c'est est-ce que ça vaut vraiment la peine de se battre avec les différents compilateurs différents pour X plateformes quand toutes les fonctions doivent finir micro-optimisées jusqu'à la dernière goutte, je pense qu'ils ont fait le calcul et déterminé que non. J'ai mentionné que C ici pour simplifier mais c'est valide pour une pléthore d'autres langages.
Bravo pour votre boîte de prod, c'est du lourd. Et Jean-Baptiste Kempf est tout simplement extraordinaire. Je ne connaissais pas ces embrouilles de codec.
Je n'ai pas bien compris comment VLC réussissait à être aussi largement compatible avec tous les codecs sans être payant, est-ce lié au droit Européen qui ne reconnait pas les brevets sur les algorithmes? Je me souviens de l'époque où on téléchargeait des packs de codecs monstrueux (pas forcément légalement) qu'il fallait installer à part sans quoi les logiciels de lecture et d'encodage ne fonctionnaient pas.
Tout simplement parce que son créateur a toujours voulu qu'il soit gratuit, et a tout fait pour, sans avoir besoin d'intégrer de publicité ou autre dans son logiciel 🙏
est il possible d'avoir le replay de cette émission? Je ne vois rien sur twitch et je trouve toujours sympa de voir/ecouter les interventions de jean baptiste kempf merci!
Bonjour Ça serait bien une vidéo sur les conteneurs vs les codecs. Nous expliquer les différences et les quelles choisir. Merci pour vos vidéos. Ils sont très éducatif. 👍👍
Jean-Baptiste Kempf - la nation reconnaissante. Merci à vous pour VLC, une invention digitale qui a libéré l'image depuis 30 ans, aussi importante que les sites de films d'amour pour le streaming.
J'adore, très intéressant et éclaircissant sur les Codecs. Je savais que c'était un foutoir énorme, mais là c'est encore plus gros. L'anecdote de l'Assembleur juste énorme !!!
JB c'est la personne la plus intéressante en informatique (francophone) que j'ai pu écouter de ma vie. C'est une véritable mine de connaissances (très pointues) dans tellement de domaines.. Je pourrais l'écouter pendant des heures
Pour info, la compression vidéo, ça existait aussi en analogique: le codage de la couleur ne se fait pas à chaque pixel, on envoyait des images entrelacées, la courbe de couleur était adaptée
Super intéressant, merci ! Plus jeune j'assemblais du code machine à la main en 6502 sur KIM-1. 200000 lignes d'assembleur à 3 bytes par ligne en moyenne ça ne fait que 600kB! C'est débile ! Chapeau !
C'est du lourd ta chaîne :) bravo pour la réalisation, mais aussi pour l'effort systématique de vulgarisation et bonne chance dans ta nouvelle aventure, et non je ne m'attendais pas à la transition de la fin, mais j'ai envie de dire, comme d'hab haha
Bonjour, je ne parviens pas à voir les différences entre toutes les images montrées lors de la vidéo pour illustrer les propos de l’invité. Est-ce que vous savez si c’est parce que les différences sont minimes ou est-ce que c’est parce qu’on est sur RU-vid et que la vidéo a été compressée avec une seule de ces techniques et que du coup toutes les vidéo rendent pareil ?
Je ne connaissais pas cette anecdote sur le fait qu'il ai refusé énormément d'argent pour éviter que VLC reste sans pub. Je ne sais comment le remercier car les pubs (à notre époque) c'est un véritable calvaire 🤬! Donc MERCI MERCI MERCI BEAUCOUP !!! Et au passage, merci aussi pour ce qu'est VLC car c'est vraiment une application géniale 😊!!!
Un monde fascinant je pense toujours aux grands malades de l'émulation , le temps et la masse d'essais erreurs a se gratter le front pour trouver comment faire tourner un logiciel sur une autre machine c'est vraiment des gens exceptionnels
Hello, merci infiniment ;) On pourrait avoir la fin de la vidéo avec l'estimation des royalties payées ou s'est tourné la vidéo ? je suis très curieux là-dessus .
désolé en 2023, j'ai un projet no-open source, car il est privé a la base, 107 310 146 ligne en assembleur seulement, moins de 2 000 ligne pour le reste, des commentait, sont sur la meme ligne, j'ai pas compté les ligne vide et les section de donné, tous cela pour me faire un jolie fichier qui fais plus de 8.5Go a convertir en image disque via une fraction des 2 000 ligne de code dans l'autre langage, donc oui vous n'est pas les seul a travaille en 2023 avec de l'assembleur, je respect votre travaille, car vous avais fais se que personne d'autre a faire, moi qui cherché a ajouté le support de format de video et audio, j'ai un element de réponse, et pour cela, GG les mec vous vous est cassé les noix pour tous le monde, on peu tous vous dire merci, sans vous on aurai des format vraiment payent du début a la fin pour pouvoir qui sais, regardé la video ici par exemple
Jean Baptiste Kemp parle très bien français. Son vocabulaire est exempt de tout le globish (call, dev, etc..) qu'on rencontre souvent chez les développeurs.
C'est toujours sympa de mettre en vidéo/comparaison 2 Codecs (H.264/H.265).. tout ca passé dans la moulinette de RU-vid.. pour qu'au final.. sur nos moniteurs.. aucun différence.. ca reste crade... merci RU-vid 👍
ça passe en quelle qualité ? Par défaut, là, j'ai 480p mais on peut passer la vidéo en 1080HD (ou aussi 1080 Premium débit optimisé pour les abonnés payants) via l'engrenage sous la vidéo (ligne 'qualité'). Parfois c'est moins que 480, sans doute la bande passante qui sature vu le nombre de gens connectés, YT réduit le débit de chacun.
@@rathernotsayatall si il a raison, y’a une perte de qualité significative entre ce qui sort de nos soft de montage et ce qui apparaît sur RU-vid. L’une des solutions pour limiter ça est de filmer en 2k ou plus (même si l’on ne publie que le 1080p) et d’utiliser un bitrate super élevé. Ça évite à l’algo de compression de RU-vid de trop défoncer l’image. Y’a une vidéo assez drôle sur le sujet ou un gars download et reupload une vidéo 1000x, l’image a la fin est juste un aplat rose avec le son décalé et défoncé
@@bobysmith5662oui, mais ça, ça a toujours été, quel que soit le support (sauf peut-être la pellicule, et encore) : TV, web, dvd, blu-ray... Dès lors qu'il y a une norme de diffusion, elle va être limitante par rapport à du "sans compression" (encore rare d'ailleurs, même en tournage et encore plus en post Prod de nos jours). Les limites de stockages/bandes passantes/équipements des spectateurs forcent ça. Comparer ce que tu as en sortie de cam ou dans ton logiciel de montage à ce que tu obtiens en diff est toujours frustrant et n'a que peu de sens 90% du temps : - la majorité du public n'a pas la culture de l'image pro et ne verra pas tellement la différence - regarde le fichier diffusé dans le flux de diffusion (= entre les autres programmes diffusés sur le même canal) pour voir si la qualité pêche... Ou surpasse, ce qui n'est pas toujours mieux ^^ - comparer le "en prod" vs "en diff" va toujours t'inciter à gonfler t'es specs d'export, avec des fichiers de plus en plus gros, des encodages de plus en plus longs... Économiquement, ça n'est pas rien et, comme on dit toujours, la vidéo, c'est avant tout une question de compromis Et puis... C'est quoi la "qualité" ? Il y a bcp de paramètres qui rentrent en compte, dont certains seront toujours très subjectifs 😉
@@mysteroutlow oui ça je comprends parfaitement que RU-vid ai la nécessité de compresser ce qu’on lui upload, que ce soit pour des raisons pratiques de diffusion ou économique (j’imagine pas la quantité astronomique de data qu’ils reçoivent par jour), mais ce qu’on peut leur reprocher est de faire de la compression « à l’aveugle », ils pourraient très bien faire en sorte qu’une vidéo uploadé dans le bon codec avec le bon bitrate ne soit recompressé. Aujourd’hui tu lui file du 360p compresse à mort, il va quand même te le recompressé
Super cool. J'en profite pour poser mon problème ici car je ne sais plus où le faire. J'ai une vidéo de mon écran de téléphone enregistrée une application androïde au nom de AZ SCREEN RECORDER. Malheureusement je n'avais pas pris soin avant enregistrement de libérer ma mémoire de téléphone suffisamment. Du coup, à la fin de l'enregistrement il m'était impossible d'ouvrir la vidéo. Ça m'affiche un message d'erreur comme quoi la vidéo est corrompu. J'ai essayé de la réparer via l'outil de l'application, et même sur le logiciel VLC grâce à un tutoriel, mais rien ! J'ai quand même conservé la vidéo mais je ne sais plus quoi faire. Je suis prête à payer pour la récupérer. Combien cela peut il me coûter. Est ce que l'invité de l'émission du jour aurait une solution ? Merci d'avance
Ahh L'ASM c'est, c'est de plus en plus rare d'entendre parler de ça... il parle de x10 mais j'ai reprogrammé des routine ASM sur des CPU type 6809e qui allait jusque x50 par rapport au language interprété qui faisait appel au routine pré programmé. Par exemple l’accès en hardware sur un floppy 640ko se fesait environs x30 plus rapide après avoir ecrit le code en ASM. C'est sur que c'est plus de ligne, et faut connaitre le hardware vraiment donc être autant programmeur que technicien voir ingé. Maintenant n'importe quel neuneu peu se prétendre programmeur développeur car il sait cliqué sur 3 boutons d'un soft qui fait tout pour lui ;) d'ou le resultat desastreux des jeux et soft non optimisé et totalement buggé mème après 10 ans de patch (1/semaine)....
Je me souviens dans ma promo en DUT informatique d’un gars qui avait développé un émulateur atari 520st en assembleur x86, un jeu tournait plus vite sur un pentium en émulation que sur le vrai 520st.
Trop génial! A quand la vidéo sur les codecs audio, l'univers des transmissions en rj45 ou réseaux numériques (studio ou live). Perso ça fait un moments que j'ai envie de trouver des moyens de sonoriser et contrôler en temps réel mes captations son, mais en dehors de Dante Control qui aide pas mal, c'est plutôt très gourment et compliqué de ne pas avoir une latence de fou! J'imagine que vous-y avez fait face plusieurs fois avec la vidéo ;)
Alors là, JBatiste me scotche ! Enfin façon de parler puisqu'il a ou participe encore à VLC d'où .... OUI, d'où un très sublime et ULTIME BRAVO pour ce logiciel freeware hors pair ainsi que JB. Je connais l'image à l'unité et même là, c'est un peu une orgie de format dont ce satané WEP qui me saoûle à longueur de temps car difficilement utilisable avec des appli' classiques voir vieillottes. La vidéo, un peu ... vieux usagé de XviD pour son smoothing que je suppose accessible avec certains "encoder" tel que AutoGK qui donne de bon résultat ainsi que l'encapsulage Matroska (MKV) à l'occasion pour des raisons de langues ou sous-titrage, je ne m'étais jamais penché sur les nouveaux codecs. Mon principe : pour avoir l'excellence, je vais au cinoche sinon je m'achète l'original pourvu que je détienne et les yeux ainsi que le matériels pour le Plus du plus (ex. : AC3 6 voies), sinon, DivX/MKV avec MP3 stéréo pour un travail perso', de famille ou maquette me suffit. A l'origine, le but était, avec ces codecs, de mettre nos films DVD sur un disque dur sans prendre trop de volume, sans connexion et les regarder tout à loisir et à n'importe quel instant (avion, train, pose travail, etc.) ; ce qui reste toujours mon cas actuellement. J'aime ma liberté ! Mais le MP4 est pas mal aussi, il faut bien le dire ! Bientôt le Canada en gros ! ;) :D :P
je vis en camping car et donc ma connection internet depend exclusivement de la 4G et de mon forfait Data, en voyant cette video j'ai compris pourquoi depuis un certain temps je consomme beaucoup moins de data sur youtube , alors que ma consomation de videos a au contraire augmenté, c'est dingue qu'on arrive a compresser aautant et reduire la quantité de données sans alterer la qualité perçue des videos !
@@John-Cena. Ces chiffres sont un bullshit total, très marketing et dans des situations idéales très lointaines de la réalité. La vérité c'est qu'on ne peut pas généraliser le gain en compression avec un simple pourcentage, c'est bien plus complexe, mais le chiffre réel est beaucoup plus petit.
4:46 Donc si un algorithme n'est pas brevetable en France, ça voudrait dire qu'une télé conçu en france devrait pouvoir se passer de ces licenses ? bon j'imagine que vu qu'on utilise des puces venant d'autres pays c'est mort, mais si hypothétiquement tout venait de france ça serait donc possible ?
Salut ! C'est super intéressant sauf qu'à la fin, j'ai plein de questions. Où en est le AV1 ? Il n'est pas lancé mais en fait si mais pas encore, il est encore en développement en parallèle du AV2 ? Y-a-t-il une version Hardware prévue ? Pourquoi Google n'a pas mis On2Technologies sur le AV1 / AV2 et préfère laisser 5 "pélos" sur un enjeu aussi important ? Pour 20 millions, il y a moyen de faire une petite équipe motivée... Pourquoi RU-vid/Google doit payer des milliards si la licence est payée dans chaque client, chaque encodeur et serveur si besoin ? De même pour la TNT. Enfin, J'aurais aimé en savoir plus sur Dolby. Pourquoi le gouvernement les a aidés ? Désolé pour les questions de profane, j'y connais rien sur le sujet. Merci par avance,
AV1 est disponible sur Netflix depuis quelques années même si la démocratisation sur la plupart du catalogue est assez récente. RU-vid l'utilise depuis quelques années également et bien que pas encore utilisé pour 100% des vidéos de la plateforme, l'utilise à présent pour la plupart des vidéos des chaînes les plus connues et qui comptabilisent le plus de vues. Aussi la 8K est exclusivement en AV1. Le plus grand frein au lancement global de l'AV1, c'était le support hardware, mais à présent absolument tous les nouveaux produits le supportent : les dernières générations de CPU Intel et AMD, les dernières générations de GPU de tous les constructeurs, les constructeurs de SoC mobile également (Qualcomm, Samsung, Mediatek, Apple tout récemment,...). La plupart des TV depuis 2020 à peu près sont aussi compatibles. Le support software est également très élevé, AV1 est disponible sur OBS, la principale application de streaming, sur Handbrake, la principale application d'encodage vidéo,... Donc maintenant ce n'est plus qu'une question de temps avant qu'on le voit partout. Pour ce qui est du développement, l'AV1 est à un stade de maturité, la plupart des ressources sont à présent tournées vers l'AV2. Google y met les moyens, et pas qu'eux puisque Intel a également son encodeur software de référence, SVT-AV1 qui est impressionnant et rapide.
Toujours interessants les sujets, les débats. Juste, et ce n'est que mon avis, le son des voix est mal traité...trop de compression, EQ mal réglé..mais c'est un détail quand le contenu est bon.
le HEVC c'est trop bien, mais oui réservé en "pirate" ... le x265 et pas h265 haha. Il faut vraiment que youtube implémente av1, parce que leur H264 est dégueu, maintenant ils ont le VP09 en mode premium mais c'est vraiment pas génial la qualité puisque de base ils demandent les fichiers et réencodent en H264 c'est juste pour réduire le débit.
Pavé César ! Je me permets de rebondir sur quelques approximations quant aux propos de JB Kempf relatifs aux brevets et notamment les brevets essentiels aux normes (Standard Essential Patent, ou SEP pour les intimes). J’ai beaucoup apprécié ses deux interventions chez Underscore, et merci à lui d’être venu parler de la jungle des standards, ceci dit ! 1/ Déjà, quand JB Kempf dit que la plupart des brevets logiciels sont illégaux en France, c’est (très) partiellement vrai. La loi française, L611-10(3) CPI, n’exclut les programmes d’ordinateurs et les méthodes mathématiques seulement lorsqu’elles sont considérées en tant que tel(les). Le « en tant que tel » est un poil retors (il date des années 60/70 aux US), et globalement impose surtout que les brevets logiciels portent sur et décrivent l’implémentation concrète d’un algorithme et non une seule idée abstraite. Pour simplifier, dans les faits les brevets logiciels sont tout à fait autorisés par les offices (et pas seulement l’Office européen des brevets, mais aussi l’INPI) pour autant qu’ils apportent de réelles innovations et globalement l’industrie s’en accommode très bien. Contrairement à ce qui est affirmé dans la vidéo, il n’y a aucune différence entre les brevets en Europe (via l’OEB) et en France concernant le sort des brevets logiciels. Les articles L611-10(3) CPI (droit français) et A52CBE (droit européen) sont rédigés de la même manière, et ce pour assurer une application uniforme du droit. Soit dit en passant, la licéité ou non des brevets logiciels n’a rien à voir avec le brevet unitaire (qui n’existe concrètement que depuis cette année). De même, l’OEB (institué en 1973, et en activité depuis 1977) a délivré des brevets bien avant que le brevet unitaire n’existe (2023 et la ratification de l’Allemagne). D’ailleurs, les Allemands n’y sont pas pour grand chose dans la brevetabilité des brevets « logiciels mais pas en tant que tels ». On peut discuter longuement du bien-fondé des brevets logiciels ou non. A titre personnel, je ne pense pas qu’ils soient néfastes dans l’absolu, s’ils n’existaient pas, chaque industriel du logiciel soucieux de préserver sa R&D irait obfusquer tous ses algos pour empêcher des tiers d’en réutiliser les ficelles, et je ne suis pas sûr que le monde s’en porterait mieux. Les brevets ont aussi pour vertu de faire circuler de l’information, et d’autant plus quand ils sont déclarés invalides (c’est un pari des industriels que d’en déposer). 2/ Concernant les brevets essentiels aux normes (SEP), là encore il y a plusieurs approximations. Depuis 2015 et le jugement de la CJUE Huawei vs. ZTE, tous les brevets reconnus comme essentiels doivent faire l’objet de licences FRAND (pour fair, reasonable, and non-discriminatory, ou « juste, raisonnable et non-discriminatoire » dans la langue de Molière). L’un des critères de la licence FRAND, le « fair », interdit pour prendre une licence d’un SEP donné de forcer à prendre des licences pour des brevets non désirés. A partir du moment où un contorsium ou un industriel force à prendre des grappes entières de licences de brevets « inutiles », on bascule dans l’illégalité. Alors bien entendu, encore faut-il obtenir gain de cause devant un tribunal, ce qui n’a rien de neutre en matière de coûts, surtout si une quantité astronomique de brevets est opposée. Mais sur le papier, la pratique est illégale. C’est même encore plus vache que ça pour les titulaires de SEP : il est impossible d’assigner en contrefaçon un tiers tant que celui-ci donne suite à une offre de licence FRAND « avec diligence et bonne foi » (autrement dit, un tiers peut faire traîner assez longuement des négociations et tirer vers le bas). 3/ Concernant les certifications, qui ne sont a priori pas des standards, c’est bien plus le far-west en matière de grappes de brevets/licences, et pour le coup c’est un réel problème. Mais il ne concerne pas a priori le monde des brevets essentiels à une norme. Si personne ne prend de licence sur le HEVC et que tout le monde se rue sur l’AV1 (maintenant pris en charge matériellement sur les derniers iPhone pro, hourra), c’est que le contorsium gérant le HEVC est trop gourmand, et c’est tant pis pour leur gueule. 4/ Concernant des litiges où **un** brevet a permis d’obtenir des condamnations à plusieurs centaines de millions, je demande à voir. Le montant me semble astronomique au regard de ce que je connais du monde des contentieux. C’est souvent un ensemble de brevets, et s’ils mènent tous à une condamnation, c’est que le juge (nettement plus sévère que les offices) les a jugés valides, ce qui a priori est un gage de sérieux. 5/ Je suis bien d’accord qu’en revanche le monde des standards est un énorme bordel, et qu’il faudrait à mon sens forcer au niveau de l’UE tous les industriels à rejoindre des pools et limiter les pools à un seul par standard, et bien entendu rendre aussi accessible que possible l’information à ce sujet. Les règles du jeu seraient déjà un peu plus compréhensibles. 6/ Concernant Apple, ils sont un brin hypocrites au sens où il y a 10-15 ans, ils poussaient à mort pour augmenter les royalties des licences « pour protéger l’innovation », et professent l’exact inverse aujourd’hui (parce que largués sur pas mal de techno de pointe ; on ne peut pas être premier partout). Mais au moins, ça fait un allié de poids pour l’open source et ne crachons pas dessus. 7/ Concernant les TV, les 20 balles de licence ne jouent pas tellement sur le prix. Si tous les brevets disparaissaient du jour au lendemain, vous inquiétez pas que les prix ne bougeraient pas. C'est surtout les dalles qui coûtent, et leur fabrication est un gros savoir-faire, chasse gardée de quelques industriels. My 2 cents, et si JB Kempf a envie de continuer à discuter brevets, c’est avec plaisir. Et merci à lui pour tout le travail en open source de titan que les équipes de VideoLAN ont abattu pour l’AV1.
Du coup, dite moi si je me trompe, je pense avoir compris pourquoi aujourd'hui sur YT tu trouves dans la qualité de lecture de certaines vidéos, le "1080p HD" et le "1080p Premium HP / Débit optimisé" ET pourquoi il est payant.
Y a aussi un changement : on passe des brevets "Hollywood/DVD" aux brevets ( même si royalties free) GAFAM/Streamers. Avec d'un côté contrôler la diffusion et de l'autre moins payer de bande-passante et puissance de calcul dans les datacenters
ca a toujours été la partie la plus importante du coté software, c'est la base dans laquelle ton code est traduit quel que soit le langage, le niveau en dessous c'est du binaire (presque) c'est juste horrible a lire et a écrire et donc on a fait des logiciels de traduction que sont les autres langages de programmation pour pouvoir écrire un truc un peu lisible par des humains mais pour être sur que la traduction soit bonne (parceque les PC c'est des grammar nazis) on rajoutes des étapes d’explications lors de la traduction mais du coup ces étapes prennent du temps et ont un cout (le traducteur travaille pas gratos) alors que si tu parlais la langue locale direct tu gagnerai du temps et de l’énergie/argent.
Est-ce que Dav1d est intégré ou sera intégré pour être utilisé par défaut dans les navigateurs? Y a-t-il d'autres périphériques dans lesquels Dav1d est ou sera utilisé?
Waho ! J'aimerais trop voir un bout de code qui est 10x plus rapide en assembleur qu'en C. Parce qu'ayant fait un peu d'assembleur, j'imagine même pas l'optim qu'il faut faire pour que ce soit rentable de supprimer le petit overhead de C.
C'est sympa de savoir qu'on a des petits génies avec ce gars de VLC. ce logiciel s'est complexifié mais il était génial, au début il lisait toute vidéo. je l'utilise encore comme lecteur. Merci la France pour cette création. j'oublie pas le petit français étudiant qui a inventé le Dvix. Bravo à lui aussi. j'espère que la fortune lui a pas fait tourner la tête. C'est devenu un panier de crabe, le flux de codecs video.
J'avais une TV 4K Samsung (de 2021 ou 2022 je ne sais plus) qui ne lisait pas les DivX sous prétexte que le codec est trop ancien. Merci pour 20 ans de vidéos de gosses (et autres). Je l'ai vendue.
C'est pour ça que je lis mes vidéos sur le PC et que je connecte juste la télé au PC si besoin(en gros utiliser la télé comme moniteur géant), grâce à FFmpeg on peut encore décoder des codecs très vieux, j'ai réussi à décoder du H262(un codec de 1996) sans problème et ce, sur VLC et MPV. Généralement, l'OS de la TV sera très limitée sur ce qu'elle supporte comme codec.
@@YannBOYERDev Je fais souvent ça aussi (sans ffmpeg, juste via VLC) mais côté "intégration" (télécommande, changement de source, de film...) c'est tellement moins pratique ! Où alors il faut un boitier spécialisé mais c'est cher pour moi 🙂
marrant de voir le nom de "Jean-Yves Avenard" dans les contributeur de dav1d ... j'ai appris l'assembleur sur ma hp48 grace a lui ... c'etait le bon temps ... on faisait des trucs de dingue sur cette calculette et souvent je me dis quand je vois mon iphone ramer sur certaines taches que ca manque un peu d'assembleur aux entournures ...
j'aime la miniature mais il y a un souci. un tout leger la norme .avi est un format (comme le mp4) alors le h264 est un codec.... on peut avoir un avi ou un mp4 qui adopte ou non ce codec. bref, comparer un format et un codec est maladroit.
16:14 Micode, les programmeurs en assembleur ne sont pas des "Aliens" mais des humains passionnés comme je l'étais quand j'étais jeune, j'adorais l'assembleur pour sa puissance et le fait que je pouvais absolument tout faire...
" les programmeurs en assembleur ne sont pas des "Aliens" mais des humains passionnés comme je l'étais quand j'étais jeune," Dans la vidéo on parle de 200000 lignes de code en langage d'assemblage. Oui, c'est surhumain. Je ne m'amuserais pas à essayer. 200000 lignes de C, ok, mais pas d'assembleur... Et, oui : l'intelligence extrême a toujours conduit à être considéré comme un Alien...
@@leroiarouf1142 c'est le langage le plus simple vu qu'il a très peu de commandes par contre ce qui le rend compliqué c'est que du coup pour simplement afficher un texte à l'écran il faut taper beaucoup de lignes de code.
@@futurizonfr3368Que tu dis tout faire? Sa veut dire quoi en gros parce que j'imagine mal faire du curl sur un site ou même créer un server http avec...
un codec qui transformerait les videos en shaders (donc des formuls mathematiques) qui prendraient une place minuscule et en plus de ca seraient redimensionnables, mon reve...
Un shader n'est qu'un algorithme pas de la données. Un shader reste de taille minuscule par rapport à un flux vidéo quelque soit l'algo de compression 😊 Après l'upscaling perrmet le genre de choses que vous cherchez....
J'adore tout ce que vous faites les gars, mais....du coup avec votre nouvelle activité vous allez proposer des prix sois-disant honnête avec du matos déjà amorti par votre activité principale et écraser les petites boites de prod avec des prix en dessous du marché ? C'est de la prédation audiovisuelle ça. Certains gros groupes (que je ne citerais pas) le font déjà avec du matos amorti déjà 10 fois avec leur client principal et loué à un prix ridicule. Et pendant ce temps les petites boites crèvent car elle doivent renouveler leur matos quasiment tous les 3 ans. Faire du cherry picking et prendre un exemple de prix abusé pour justifier votre démarche de prédation, c'est moyen.
Je sais pas si ça fait ça uniquement chez moi, mais avec écouteurs, par moments le son saute tous les 4 mots, c'est hallucinant, et du coup on perd une partie de chaque phrase... Je suis sur un mac, sous chrome, avec des airpods pro 2. Ce problème est pas que sur cette vidéo, mais c'est la seule chaine sur laquelle je l'ai donc il y a plus de chances que ça vienne de l'encodage de la vidéo que de mon matériel. Si jamais je suis pas le seul, et si vous avez le temps de check tout ça chez la team Underscore, ça serait super, le contenu est vraiment cool mais ça me flingue un peu l'écoute du coup :(
excellent, toujours qualitatif les interviews ... bon j'vais pas m'repeter donc. Non le commentaire c’était juste pour dire merci de m'avoir fait exploser de rire sur le jeté de carton (#nospoil) ! bonne continuation, et merci encore pour la qualité de votre chaine.
Alors je pose ca là Ca peut paraitre farfeulu Pas applicable Mais est ce que l'avenir du stockage de "video" Ce serait pas des stocké l'information non pas comme une "suite d'image" mais plutot comme des "espace vectorielle de concept" Je m'explique En biométrie par exemple on ne stocke pas directement limage du doigts ou de la face mais ses coordonnés dans un espace vectoriel quon a créé en amont. Par exemple mettons un espace a 3 dimension pour stocké les visages Une dimension pour l'écart des yeux, une dimension pour les oreilles plus ou moins décolé et une dimension pour la tailles des joue. On peut alors analyser un visage, ke placé dans cet espace puis le reconstruire plus tard. On aura perdu que les donné non mesuré. Ici par exemple la couleur des yeux. Avec seulement 50dimension ca marche tres bien. Ca resoud le pb du stockage et de la bande passante Mais ca demande bcp plus de calcul. Aussi pourriez vous parlez dans les prochaines video des sujet suivant. -neuroscience (avec Stanislas Dehaene) -des recent resultat dans l'OI (Organic Intelligence, ou faire des ordi avec des neurones dans des boite de pétrie) -des algo de recommandation avec @Science4All
Dans Davinci Resolve (version gratuite) pour Linux (gratuit), la majorité des codecs ne sont pas inclus parce que c'est gratuit. Mais dans les autres logiciels gratuits ils sont acceptés? 🤔 Exemple: Shutter Encoder et VLC sont gratuit, pourtant ils ont tous les codecs inclus.
Hey JB, il sort quand VLC 4? ;-) En tout cas merci pour cette mise à jour sur le monde des codecs. Je comprends mieux pourquoi c'est compliqué de trouver le bon!
Je suis un peu atterré par le peu de connaissance du sujet que les deux "hôtes" de l'émission ont. Je suis parfaitement en phase avec Jean-Baptiste KEMPF, étant moi même ingénieur en informatique et avide utilisateur de son VLC et de codec depuis très très longtemps. Mais je dois avouer que je suis très surpris que la discussion n'ai que peu de profondeur à cause du peu de préparation des hôtes. C'est bien produit, mais c'est très très léger, seul l'invité apportant de la matière. On a plus l'impression de se retrouver devant une idole et deux fans impressionnés et un peu idiots dans leur comportement. Bref, tout ça pour dire merci à Jean-Baptiste, mais pas aux hôtes, à part de l'avoir invité.
Le gars à gauche sur l'image passe son temps à rigoler pour tenter de masquer sa totale ignorance du sujet. Et c'est comme ça sur toutes les vidéos que j'ai regardées sur cette chaîne. 😥
Les génies marginaux qui pissent des lignes de code en assembleur me rappellent la belle époque des crews qui sortaient des « démos » avec des images, des anims 3D et du son dont on ne soupçonnait pas les machines de l’époque capables de faire ça… Les types savaient comment tirer le meilleur des capacités matérielles, c’était magique 😍 #nostalgie #futurecrew
C'est ça la vidéo sur les codecs dont micode parle à la fin de votre dernière vidéo ? Parce que j'avais cherché la vidéo et je trouvais pas edit oui ça doit être ça les vêtements collent, du coup il a du y avoir une erreur car vous disiez de cliquer sur une vidéo qui en fait n'était pas encore uploadée :)
T'imagines Windows ré-écrit en assembleur . . . on aurait à nouveau un CD d'installation et il prendrait 0,001% de la RAM et du CPU, et 0,001% sur disque C ( et on aurait de + à nouveau le choix de paramétrer les couleurs des fenêtres et des dialogues mais là je demande la Lune, Mars, Jupiter et Satune avec leurs satellites )