Тёмный

Les maths des réseaux de neurones 

Alexandre TL
Подписаться 4,3 тыс.
Просмотров 4,6 тыс.
50% 1

Dans cette vidéo, on poursuit le travail fait dans la première vidéo sur les réseaux de neurones en écrivant de manière vectorielle les équations du forward pass. Ces vectorisations rendent les écritures beaucoup plus lisibles et permettent l'utilisation de GPUs, capables d'effectuer beaucoup de calculs en parallèle.
Me suivre :
Github : github.com/Procuste34
Twitter : / alexandretl2

Наука

Опубликовано:

 

2 мар 2023

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 19   
@prfontaine5387
@prfontaine5387 3 месяца назад
Cette vidéo fait partie d'une playlist intitulée "Les bases des réseaux de Neurones" qui est vraiment remarquable. On commence par la différentiation automatique avec un codage "from scratch", certes sans en connaître les aboutissants et puis, peu à peu, on se rapproche des réseaux, du processus d'apprentissage (fondamentalement une descente de gradient s'appuyant sur les gradients calculés par la différenciation automatique). Tout ce que j'aime en pédagogie: quasiment aucun prérequis nécessaires, on fait soi-même du code avant d'utiliser la librairie hyper-puissante (qui cache tout), progressivité dans la compréhension, introduction des notations et du vocabulaire de la communauté ... Bravo et merci !!
@alexandretl
@alexandretl 3 месяца назад
Merci beaucoup pour votre commentaire! Content que la playlist vous serve
@gno7553
@gno7553 Месяц назад
Très bien expliqué. Ça permet de voir l'application de l’algèbre linéaire.
@alexandretl
@alexandretl Месяц назад
Merci! Dans le même style et qui parle d'algèbre liénaire, il y a aussi ma vidéo "Qu'est-ce qu'il se passe dans un réseau de neurones ?"
@U.KOCORA
@U.KOCORA Год назад
Merci beaucoup pour cette vidéo de vectorisation. Ça aide
@theStarpoon
@theStarpoon Год назад
Y a t'il une méthode vectoriel pour faire la rétro propagation du gradient pour effectuer l'apprentissage ?
@climborre7216
@climborre7216 5 месяцев назад
Bonjour comment se nomme le logiciel de montage pour vos vidéos ? Animation etc
@alexandretl
@alexandretl 5 месяцев назад
Je fais les animations avec Manim (librairie Python) et le montage est fait sur DaVinci Resolve
@redone7696
@redone7696 Год назад
Est-ce qu’on peut dire qu’un réseau de neurones n’est ni plus ni moins qu’un composé de plusieurs fonctions lineaire ?
@alexandretl
@alexandretl Год назад
Si on prend pour fonction d'activation la fonction identité (f(x)=x), oui c'est bien ça, mais justement l'interêt c'est de pouvoir faire plus complexe que juste du linéaire, donc on prend des fonctions d'activations non linéaires
@lfbbtin7436
@lfbbtin7436 6 месяцев назад
* A^[l] contient n[l-1] lignes
@alexandretl
@alexandretl 5 месяцев назад
Non, A^[l] est de taille (n[l], m) avec m le nombre d'exemples, puisqu'elle a la même taille que Z^[l] qui est obtenu avec Z^[l] = W^[l]*A[l-1] + b^[l]. Par exemple si tu regardes A^[0] = X c'est bien de taille (n, m) où n vaut n^[0]. (à noter qu'il existe une autre convention où l'on place la dimension du batch m en premier)
@lfbbtin7436
@lfbbtin7436 5 месяцев назад
@@alexandretl merci pour votre réponse, je voulais dire A^[l] contient n[l-1] lignes mais oui en effet je me suis bien trompé c’est n[l] lignes et m colonnes L’ensemble des vidéos théoriques sont vraiment de super qualité. Ici il s’agit du forwardpass pour le réseau de neurones. Où puis je trouver le backpass? Merci
@alexandretl
@alexandretl 5 месяцев назад
​@@lfbbtin7436 Merci bien ! Dans la playlist "Les bases des réseaux de neurones" sur ma chaîne (notamment la vidéo Coder backpropagation en Python pour le côté pratique du backward pass, et les vidéos sur les graphes de calcul pour le côté un peu plus théorique)
@yashkadole8716
@yashkadole8716 Год назад
English please
@alexandretl
@alexandretl Год назад
Math is the universal language
@yashkadole8716
@yashkadole8716 Год назад
@@alexandretl at least captions , really liked your animations
@alexandretl
@alexandretl Год назад
@@yashkadole8716 thanks! actually i'm planning on opening an english channel
@yashkadole8716
@yashkadole8716 Год назад
@@alexandretl thank u
Далее
Bayes theorem, the geometry of changing beliefs
15:11
ЭТОТ ПЕНЁК ИЗ PLANTS VS ZOMBIES - ИМБА!
00:48
Comprendre les réseaux de neurones
13:10
Просмотров 21 тыс.
GRIGORU PERELMAN : math rebel
21:43
Просмотров 177 тыс.
The moment we stopped understanding AI [AlexNet]
17:38
Просмотров 783 тыс.
CNN1/ Réseaux convolutifs (CNN)
27:27
Просмотров 49 тыс.
$1 vs $100,000 Slow Motion Camera!
0:44
Просмотров 27 млн
Battery  low 🔋 🪫
0:10
Просмотров 13 млн
iPhone 16 - 20+ КРУТЫХ ИЗМЕНЕНИЙ
5:20