Тёмный

Deep Learning入門:ニューラルネットワーク学習の仕組み 

Neural Network Console
Подписаться 35 тыс.
Просмотров 111 тыс.
50% 1

この動画では、ニューラルネットワークの数学的基礎として、またパラメータ学習のために用いられる手法として、ミニバッチ勾配降下法(Minibatch Gradient Descent)、Back propagationについてできるだけ分かりやすく解説します。
前回の動画(ニューラルネットワークの多層化テクニック)はこちらです。
• Deep Learning入門:ニューラルネ...
Deep Learningとは?
• Deep Learning入門:Deep L...
再生リスト「Deep Learning入門」
• Deep Learning入門
Neural Network Console
dl.sony.com/ja/
Neural Network Libraries
nnabla.org/ja/

Опубликовано:

 

13 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 30   
@木原聡-s9w
@木原聡-s9w 4 года назад
本気で分かりやすい動画です。 他の動画や書籍はどうしても微分過程での連鎖律とのつながりがイメージできないものが多い中、この動画であれば初学者に対しても理解を促しやすいと感じられました。
@ふせ-x2v
@ふせ-x2v 7 месяцев назад
こんなにすらすら明解に説明できるの凄い
@ken39rai
@ken39rai 5 лет назад
自分の中ではこの動画が今まで見た中で一番わかりやすい。 ほかの動画は難しすぎるか簡単すぎるかどっちか。
@oukaneki9768
@oukaneki9768 4 года назад
わかりやすい系って理論まで突っ込んでくれんからなぁ
@xy8066
@xy8066 3 года назад
分かった気にさせるものよりはしっかりやったほうが後々の理解度に繋がる。
@nota5230
@nota5230 10 месяцев назад
窓際トレーディングシステムPMです。いろいろ見て勉強してましたが、腹落ちしました。素晴らしい具体例ですね。モジュールイメージがつきました。ありがとうございます。
@ShokurosFishing2000
@ShokurosFishing2000 3 года назад
全く理解できへんかったけどなんだこのワクワクする動画は!!!  楽しい!!!!
@AlexAlex-qh3ji
@AlexAlex-qh3ji 4 года назад
簡単→詳細が徹底されていてすごくわかりやすい
@xy8066
@xy8066 3 года назад
数学好きだったので微分とか出てくるだけでワクワクです
@9876543210289
@9876543210289 2 года назад
すっげぇわかりやすい…
@kentodesuyo5837
@kentodesuyo5837 4 года назад
これが無料で見れるのが凄い。普通に有料コンテンツのクオリティ
@wakaxx21
@wakaxx21 4 года назад
本当にわかりやすいです。 今までいろんな動画や有料セミナー、書籍を読みましたがやっと理解できました。
@TSABOTEN
@TSABOTEN 3 года назад
入門と専門の間を補間してくれる動画でとても役に立ちました
@Ajuman_
@Ajuman_ 4 года назад
えとね、控えめに言って神
@ok3ch
@ok3ch 3 года назад
わかりやすいです!
@Vasculogenesisangiogenesis
@Vasculogenesisangiogenesis 5 лет назад
分かりやすい
@ttera3653
@ttera3653 3 года назад
これは目から鱗すぎる!!
@nakajimato2011
@nakajimato2011 4 года назад
ニューラルネットワークが人間の脳の構造を真似て発展したということを知って興味を抱きました
@jimmypariko
@jimmypariko 5 лет назад
或る乱数から始めて、1batch収束した結合重みバイアスと、別の乱数から始めて求めたそれとでは、値が異なります。多数batchを繰り返せば、同じ値に収束するのでしょうか? PS.いつも参考にさせていただいてます、ありがとうございます。
@マスタぜろ
@マスタぜろ 4 года назад
ある程度の収束はあるのだと思いますが、沢山の初期設定された乱数の入力から得られた出力の中で比較した結果、1番小さなEを採用すると言う事になるのではないかと考えました。
@JY_STATS
@JY_STATS 4 года назад
ゼロつく読む前にこれ見たかった(笑)
@user-ej3ip4pu7q
@user-ej3ip4pu7q 2 года назад
初学者です皆さんと一緒に勉強を頑張りたいです!!!!!!!!!!
@voutubeY
@voutubeY 4 года назад
分かりやすいです。 ただ、BGM要らない!
@德永浩己
@德永浩己 3 года назад
ありがとうございます。
@ihmond
@ihmond 4 года назад
実際はActivation関数(reluやtanh)がLinear演算の後に来るので、その偏微分も必要なんだけどね。ConvやMaxpoolingなどのレイヤよりも基本
@MuskMeron
@MuskMeron 3 года назад
BGMなくして再アップロードしてほしい
@junkashi2333
@junkashi2333 3 года назад
ラウンドEラウンドbって、なんのために求めたの。bもwと同じように更新していくの?b"=b-ηなんちゃらみたいに
@yomboh7033
@yomboh7033 4 года назад
Bgm教えてください
@kosukeniwa1178
@kosukeniwa1178 4 года назад
めちゃくちゃ早口な麻雀プロの鈴木たろうって感じの声だ
Далее
畳み込みの仕組み | Convolution
22:17
Просмотров 132 тыс.
Deep Learning入門:Attention(注意)
15:39
Просмотров 77 тыс.
Deep Learning入門:Deep Learningとは?
10:06
Просмотров 107 тыс.