Тёмный

【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】 

AIcia Solid Project
Подписаться 57 тыс.
Просмотров 80 тыс.
50% 1

Опубликовано:

 

29 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 138   
@satoshinakamoto3104
@satoshinakamoto3104 3 года назад
機械学習のモデルが正解に近づくにつれて、人間がどうやって翻訳しているのかの思考のカオスなところが数式化(モデル化)されて脳の仕組みが解明されていくような気持ちになりますね。色んな古典的物理現象がF=maの派生で全て記述できると人類が気づいたように、人間の思考ってこんな単純な仕組みなんだ、って解明されるときが来そうですね。楽しみな反面、人間の潜在意識に作用してしまうバグのような仕組みが解明されてしまって悪用されると怖いですが...(例えばサブリミナル効果的なもの)
@AIcia_Solid
@AIcia_Solid 3 года назад
それは面白いですね! まさに認知科学の領域ではそういうような研究がされていると思います。 興味があればぜひこちらの本を! amzn.to/3lYzneB
@GL-Kageyama2ndChannel
@GL-Kageyama2ndChannel 3 года назад
まさに、もっと評価されるべき動画ですね😄 何年かしたら、10万回再生くらい行って欲しい。
@AIcia_Solid
@AIcia_Solid 3 года назад
ご視聴コメントありがとうございます😊 ありがたいお言葉😊😊😊 ぜひそうなるよう、拡散していただけると嬉しいです😍
@jaitjait3720
@jaitjait3720 3 года назад
ありがとうございました! 今transformerで独自のモデル開発をしてるので、復習になりました!
@AIcia_Solid
@AIcia_Solid 3 года назад
ご視聴コメントありがとうございます😊 そのうち Transformer の動画も創りますので、そちらも気が向いたらぜひご覧ください🎉
@kenjik8588
@kenjik8588 3 года назад
Attentionめっちゃ待ってました!
@AIcia_Solid
@AIcia_Solid 3 года назад
お待たせしました!!!
@yuya9623
@yuya9623 Год назад
いいね連打したいくらい良くわかりました!!概要と数式両方が丁寧に噛み砕かれていて、本当にわかりやすかったです。 すばらしい動画ありがとうございます!
@AIcia_Solid
@AIcia_Solid Год назад
ご視聴コメントありがとうございます! そう言っていただけると嬉しいです!🎉
@regi651
@regi651 2 года назад
アイシアさんの動画のおかげで、今まであやふやにしていたあらゆる深層学習の重要な物事についてきちんと自分なりに理解することが出来ました! 卒業研究が始まる前にあなたのチャンネルに出会えて誠に嬉しい限りです、ありがとうございます!
@AIcia_Solid
@AIcia_Solid 2 года назад
それは良かったです! 真面目に取り組む方に活用いただけて私もとても嬉しいです!😍🎉🎉🎉 これからも価値ある動画を生成しますので、応援いただけると嬉しいです!(^o^)
@フォビフォビ
@フォビフォビ 3 года назад
いつも分かりやすい解説ありがとうございます! 通知オンにしましたよ!
@AIcia_Solid
@AIcia_Solid 3 года назад
わーい! いつもお楽しみありがとうございます!🎉 通知オンナイスです😎
@NISHI000d
@NISHI000d 3 года назад
1週間遅れで見た、 Attentionの元ネタってこれだったんだ、よくわかった。サンクス。Transformer は手軽に学習できなくて扱ってないけど、ネタ自体は重要だから公開期待しています。
@AIcia_Solid
@AIcia_Solid 3 года назад
Transformer もそのうちだします! お楽しみに!😍🎉
@fouga1221
@fouga1221 3 года назад
DL関連の入門書1冊読んでみた程度の知識ですがギリギリ理解できるぐらい内容でめちゃくちゃ面白かったです! Attentionの翻訳以外での活用方法も気になりました
@AIcia_Solid
@AIcia_Solid 3 года назад
ご視聴コメントありがとうございます!😍 楽しんでいただけたようで嬉しいです😊 順次出していきますので少々お待ちください!🎉
@皐月陽咲
@皐月陽咲 2 года назад
AttentionだけにAttentionから始まるなんて、駄洒落が効いてますね
@AIcia_Solid
@AIcia_Solid 2 года назад
えへへ、おしゃれでしょ😊😭😊
@ryufukaya1848
@ryufukaya1848 2 года назад
いつもお世話になっております! 業務でAttentionについて学ぶ必要があり、少しとっつきずらかったんですが、アリシアさんの素晴らしい動画で理解できました!
@AIcia_Solid
@AIcia_Solid 2 года назад
それはとても良かったです!(^o^) ぜひこちらの Transformer の動画もご参考ください!🎉 ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-50XvMaWhiTY.html ちなみに私はアイシアです😋
@ryufukaya1848
@ryufukaya1848 2 года назад
@@AIcia_Solid お礼のコメントで、お名前を間違えるとは失礼しました、、、
@AIcia_Solid
@AIcia_Solid 2 года назад
ご支援いただいていることに今気づきました、すみません、、、、、!🙇‍♀️🙇‍♀️ ありがとうございます! 頂いた支援に感謝しながら、今後も良い動画を生成できるよう精進します! 応援の程よろしくお願いします!🎉🎉🎉
@tonarinonausicaa
@tonarinonausicaa 3 года назад
動画ありがとうございました。 CNNをどう代替していったのか、ViTもいつか紹介してもらえるのを楽しみにしています!
@AIcia_Solid
@AIcia_Solid 3 года назад
ですよね! ViT はそのうち解説します! が、順番なので、のんびりお待ち下さい、、、!🙇‍♀️
@bonbon6590
@bonbon6590 3 месяца назад
こちらの動画は決して試験対策といった類ではないのは重々承知していますが G検定対策で参考書を読んでいてもどうしても用語が上滑りして入ってこない… ところでしたがAIciaちゃんが刻み込むように、それこそ畳み込むように熱意をもって説明していただいたおかげで無事合格できました。特にこの回やCNN、Word2Vecの動画には助けていただきました。今後のご活躍をお祈りしています!
@AIcia_Solid
@AIcia_Solid 3 месяца назад
ご視聴コメントありがとうございます!! G検定を目指している方が見てくださっているというのはなんとなく聞いていたのですが、 bonbon6590 さんのコメントのおかげでやっとわかりました!!! なんでこんな長い動画シリーズを見てくれるんだろう、、、?🤔 と、自分でも不思議だったんですが、 そういう楽しみ方や、教材との違いがあっとんですね! 私も新しい発見をいただきました。ありがとうございます!! そしてなにより、合格おめでとうございます!!!!!🎉 これからも、ぜひよき DS ライフを送ってくださいませ!
@vincent1035
@vincent1035 3 года назад
いつも分かりやすい解説ありがとうございます! 今GANを業務で応用を考えているので、その辺りの解説もして頂けると嬉しいです!
@AIcia_Solid
@AIcia_Solid 3 года назад
ご視聴コメントありがとうございます😍🎉🎉 生成モデルは今年の後半か来年を予定しています。 順番に作成しておりますので、少々お待ちくださいませ😍🎉
@北穂高
@北穂高 Год назад
DL使ってると忘れるけど、よく考えたら数学から国語の答え出すってすごいな
@AIcia_Solid
@AIcia_Solid Год назад
ご視聴コメントありがとうございます! たしかに😮 その考え方面白いですね!🎉
@けーけ-z1o
@けーけ-z1o 3 года назад
なんやこの神チャンネル登録しました
@AIcia_Solid
@AIcia_Solid 3 года назад
わーい! うれしみ😊😊😊
@takek9215
@takek9215 Год назад
なるほど。たまにある謎の単語ループの原因がわかった。 直前の出力単語と意味の集合であるベクトル。 次に書き出すべき単語を確率統計的に選ぶ。 単語を選んだらベクトルからその意味の分ベクトルを減算する。 この減算がうまく機能しなくて、統計的に同じ単語が選ばれやすくなると、同じ単語や文を繰り返すループにはまることがある。ということか。
@AIcia_Solid
@AIcia_Solid Год назад
だいたいそんな感じです! こんな文脈ではこんな感じの単語だよねーっていうのがループに入っちゃうと、そのまま抜けられずにぐるぐるすることがあります😇 最近のモデルではかなり減りましたが、今でも極稀に見られるらしいです!
@bonbon6590
@bonbon6590 3 месяца назад
ありがとうございます!
@AIcia_Solid
@AIcia_Solid 3 месяца назад
ご支援もいただきありがとうございます!!!!!🎉🎉🎉🎉🎉 いただいたご支援のパワーを元にまた良き動画を生成したいと思います。今後ともぜひ応援よろしくお願いします!🎉
@ふく-o5z
@ふく-o5z 3 года назад
勉強が楽しくなりました。 ありがとうございます
@AIcia_Solid
@AIcia_Solid 3 года назад
わーい!🎉 それは何よりです!😍🎉
@猫の毛まみれ
@猫の毛まみれ Год назад
楽しくてワクワクする動画をありがとうございます! 全体の流れはわかって 「なるほどー」な気分にはなったのですが どうしてこの仕組みで 「注目すべき単語が特定できる」 のかがわかりませんでした。 何度も動画見て勉強します!
@AIcia_Solid
@AIcia_Solid Год назад
ご視聴コメントありがとうございます! じっくり見ていただけると私も嬉しいです! もしまたわからないことあれば聞いてください!
@山田-b8n
@山田-b8n Год назад
いつも大ッッ変お世話になっています! 質問があります。 34:23 補足1で、「文の意味ベクトルはh_0←」とありますが、h_n→ではない理由は何ですか? もしどこかに書いてあれば、どこに書いてあるかも合わせて教えていただきたいです。 よろしくお願いします!
@AIcia_Solid
@AIcia_Solid Год назад
ご視聴コメントありがとうございます! ご活用いただけて嬉しいです!🎉 私も意味ベクトルは h_n→ を用いるのがいいのではないかと思いますが、 ただ、実際の論文では h_0← が用いられており、その設定で学習しているようなので、 実際には h_0← が文の意味ベクトルとなるように学習しているのだと思います。 詳しく知りたい場合は、是非概要欄から原論文を見てみてください!🎉
@山田-b8n
@山田-b8n Год назад
ご回答ありがとうございます! 原論文読んできます! 今Transformerで時系列予測をしようとしているんですが、 SAHPの解説動画あるとめちゃくちゃ嬉しいです! (原論文とGithubのソースがすべて状態で苦戦してます…) もしアイシアさんご興味あればぜひお願いします🙌
@AIcia_Solid
@AIcia_Solid Год назад
ぜひ! SHAP についても了解です! たしかに、そろそろ作っても良さそうな頃合いですね🤤 検討させていただきます!
@ミトコンドリア君-f6t
@ミトコンドリア君-f6t 3 года назад
授業以上に分かりやすくていつも本当に助かっています! ご質問があるのですが、encoder-decoderモデルがseq2seqであるという解釈で合ってますでしょうか? 深層強化学習についても学べたら最高です😙
@AIcia_Solid
@AIcia_Solid 3 года назад
ご視聴コメントありがとうございます!🎉 お褒めに預かり光栄です!😍 まさに、 EncoderDecoder は seq2seq の1種だと思います。 強化学習は今リサーチ中です。お楽しみに!!
@dera_channel0
@dera_channel0 3 года назад
動画ありがとうございます!先日E資格を受験してきましたが、動画を何回もみて勉強させていただきました! 是非ブログで紹介させてください!
@AIcia_Solid
@AIcia_Solid 3 года назад
受験お疲れさまです! 活用いただけて嬉しいです😍 ぜひぜひ、紹介していただけると嬉しいです!😍😍😍🎉🎉
@strawberryfield891
@strawberryfield891 Год назад
いつも本当にありがとうございます。23:00あたりの意味ベクトルcは、encoderから出力されたいわゆるlast hidden stateのことですか?
@AIcia_Solid
@AIcia_Solid Год назад
ご視聴コメントありがとうございます! その周辺では、まさにその通りで、last hidden state を意味ベクトルと呼んでいます!
@asreia
@asreia Год назад
32:32 今(Decoder)の文章の流れ(S(i-1))からして、前(Encoder)の文章のどの単語(h(j))に注目したいか、の分布(C(i))がAttention機構なのですね。 確かにvol. 19のSENetのSE-Blockに似ている。
@AIcia_Solid
@AIcia_Solid Год назад
ですね! 似てるでしょ😎 この発想が、後々すごいことになるのです😎✌️
@ikura18
@ikura18 Год назад
Thank you again for such a great video! I’m wondering how we train the 2-layer NN for the decoder. I.g. What is input, and what is the label?
@AIcia_Solid
@AIcia_Solid Год назад
Thank you for your watching and comment!🎉 In the paper, the authors say that they use parallel corpora of translation. (e.g. En. Fr.) I think they trained the model by next word prediction task with that data. If you still have question, feel free to ask me again! Thank you!!🎉 Neural Machine Translation by Jointly Learning to Align and Translate arxiv.org/abs/1409.0473
@ikura18
@ikura18 Год назад
@@AIcia_Solid thank you so much again for your kind answer!! You’re right I will read the paper carefully!
@AIcia_Solid
@AIcia_Solid Год назад
I'm happy to hear that!!🎉
@えだ-b3x
@えだ-b3x 3 года назад
今まで読んだAttentionに関するどんな資料よりわかりやすかったです! single maxoutをするのはsoftmaxの計算を軽くするためですか?
@AIcia_Solid
@AIcia_Solid 3 года назад
ご視聴コメントありがとうございます!😍 お褒めに預かり光栄です!😊😊😊 軽量化も理由のひとつだとは思いますが、詳しい理由はわかりません🙇‍♀️🙇‍♀️🙇‍♀️ もしかしたら過学習を押さえて汎化を上げたりしているのかもです。引用先の論文をたどっていけば分かるかもです!
@Jameamanagercohendirector
@Jameamanagercohendirector 3 года назад
Transformに関しては明日配信されますか?
@AIcia_Solid
@AIcia_Solid 3 года назад
いえ、明日は無理です/(^o^)\ 順次配信していきますので、順番をいましばらくお待ち区多彩😇
@motostudies_jp
@motostudies_jp Год назад
いつも分かりやすい動画ありがとうございます。34:20の、「意味ベクトル使ってへんやんけ」という疑問がなぜ湧くのか分からなかったのですが、Ciを経由して使われてるんじゃないんでしょうか?(最初の隠れ状態以外にも)
@AIcia_Solid
@AIcia_Solid Год назад
ご視聴コメントありがとうございます! なるほど!素敵な質問ですね! 当時の Encoder-Decoder model は、Encoder の RNN で作ったベクトルを Decoder に1つ渡すというのが主流でした。 なので、(当時は)普通はやってることが入ってないじゃん! というテンションです。 Transformer の登場以降、Attention is All You Need 的な世界観に変容したので、 もはやモトスタさんの言うように、c_i 経由だけで良くない?という感覚に変わったのだと思います。 素敵な指摘ありがとうございます! 質問の回答になりましたでしょうか? もしまだ疑問あれば、追加で質問くださいませ!
@motostudies_jp
@motostudies_jp Год назад
ありがとうございます。エンコーダデコーダモデルを復習してから見直すとよく分かりました!
@AIcia_Solid
@AIcia_Solid Год назад
おおー! それは良かった & 素敵です!✨ ぜひその理解をご活用ください!🎉
@arigato39000
@arigato39000 3 года назад
ありがとう
@AIcia_Solid
@AIcia_Solid 3 года назад
どういたしまして😊
@mtmotoki2
@mtmotoki2 3 года назад
ベンジオ ってたら、ヒントン、ルカンにならぶ深層学習のゴットファーザーじゃないですか
@AIcia_Solid
@AIcia_Solid 3 года назад
ですよね。 ベンジオさんって読むんですね。 よく見かけます👀👀 ほんとすごいですよね😍
@耕平髙橋
@耕平髙橋 3 года назад
とてもわかりやすい解説ありがとうございます! 1点質問がありまして、最後の方に登場するVaが何者か教えていただけますか?
@AIcia_Solid
@AIcia_Solid 3 года назад
ご視聴コメントありがとうございます!😍🎉🎉 すみません、質問の意味がわかりません。 Va は、何秒頃に登場しますか、、、?
@耕平髙橋
@耕平髙橋 3 года назад
@@AIcia_Solid 30分頃に登場します! eij = va tanh(...)の式のやつです!
@AIcia_Solid
@AIcia_Solid 3 года назад
これか!ありがとうございます! これは attention 用のパラメタです。 s と h から、全結合、tanh、全結合の3ステップで e_ij を計算するのですが、2回目の全結合(=内積)用のパラメタが v_a です!
@taka_49
@taka_49 2 года назад
いつもお世話になっております! bi GRU の forward と backward のGRUブロックのパラメータは、違いますよね?つまり、bi GRU では2つの異なるGRUの学習を、順番を逆にした同じ系列データで学習してるという認識で正しいでしょうか?
@AIcia_Solid
@AIcia_Solid 2 года назад
Taka _ さんいつもご視聴ありがとうございます!🎉 まさにそのとおりで正しいです!
@taka_49
@taka_49 2 года назад
@@AIcia_Solid ご解答ありがとうございます! これからもよろしくお願いします。
@kamikaze114
@kamikaze114 Год назад
attentionてq,k,v作って内積するだけって認識だったのですが、全然違いました…
@AIcia_Solid
@AIcia_Solid Год назад
ご視聴コメントありがとうございます! その Attention は、Transformer の Multi-Head Attention ですよね? それであれば、こちらの動画で紹介しております!🎉 ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-50XvMaWhiTY.html
@北野圭祐-o1s
@北野圭祐-o1s 3 года назад
今回も大変勉強になりました。ありがとうございます。 Decoderの数式に関して質問なのですが、 p(y_i) = p(y_i | y_(i-1), S_i, C) となっておりますが、 p(y_i) = p(y_i | y_(i-1), S_(i-1), C) とS_iではなくS_(i-1)とならないのでしょうか? p(y_i) = p(y_i | y_(i-1), S_(i-1), C)の理由としましては、 一つ前の隠れ層S_(i-1)と一つ前の出力値y_(i-1) を加味して、今の出力値y_iを決めているように感じたためです。 ご教示いただけますと幸いです。
@AIcia_Solid
@AIcia_Solid 3 года назад
素晴らしい質問ですね!🎉 結局は、 RNN cell がやっていることは、 入力 y_{i-1}, s_{i-1}, c から出力 p(y_i), s_i を作ることです。 この過程は、論文中では、 s_i = f(s_{i-1}, y_{i-1}, c_i) とまず s_i を計算してから、これを用いて p(y_i) = g(y_{i-1}, s_i, c_i) で計算するとありましたので、その通りに書いてみました。 要するに、処理の順番のはなしで、今回はこの順序でやられているということです😋
@北野圭祐-o1s
@北野圭祐-o1s 3 года назад
@@AIcia_Solid お褒めの言葉ありがとうございます。めっちゃ嬉しいです! 直感的には、 1つ過去までの隠れ状態を表すs_{i-1}を使用した方が、今何書くかの確率 p(y_i)には良さそうなのですが、このようにまずs_i計算することになにか利点があったのですかね。 理解しようと論文読んでみたのですが、全然歯が立ちませんでした。。。 Alcia様みたいになれるように精進します! ご教示いただきありがとうございました😀
@kT-vt1io
@kT-vt1io 3 года назад
直感的に紐解かれていてとても勉強になりました! ひとつご質問ですが、32:25 あたりの「2層のNNを使ってどの単語に注目するかを S^{(d)}_{i-1} と h_j から決める」は論文の肝となるアイデアのひとつだと思うのですが、この「2層のNNを使って」の部分、「なぜ2層なのか(例えば1層では出来ないのか)」はどうやって決定されるものなのでしょうか。 単純に複数のアーキテクチャを試行錯誤した結果、という探索的なものなのか、ここにももう少し明確な筋道があるのか... (自分で論文を見た限りでは特にその説明はないように思えたのですが、もし見逃していたらすみません) 些末な話で恐縮ですが、自分で一からネットワークを考える際には必要な部分にも思えたので、Aiciaさんのご意見教えて頂けたら嬉しいです!
@AIcia_Solid
@AIcia_Solid 3 года назад
ご視聴コメントありがとうございます! あまり真面目に考えてはいませんでしたが、2層で十分精度向上が見込めるからとかその辺りではないでしょうか。 一応、2層あれば万能近似もなりたちますし、、、🤔 たぶん、実験段階では2層とか3層とか試していて、あまり精度変わらなかったとか、そんな背景がある気もします🤔
@kT-vt1io
@kT-vt1io 3 года назад
@@AIcia_Solid なるほど、では割と探索的なアプローチもあり得る、ということですね。大変参考になりました。ありがとうございます!
@hiroyukippp7380
@hiroyukippp7380 3 года назад
バートのティはトランスフォーマーのティー!ジーピーティーのティはトランスフォーマーのティー!
@AIcia_Solid
@AIcia_Solid 3 года назад
鋭いさすが!😎✌️
@ken8392
@ken8392 3 года назад
s_(i-1) と c_i はGRU cellに入る前にconcatenateされているんでしょうか?
@ken8392
@ken8392 3 года назад
普通に論文に書いてました(^^;) r_iとs_(i-1)のアダマール積とか区別した方が何かと綺麗にまとまるのでsとcは区別されてました。
@AIcia_Solid
@AIcia_Solid 3 года назад
解決したようで何よりです! それよりなにより、論文と合わせてみていただけてとても光栄です!😍🎉
@manabirisu
@manabirisu Год назад
少し気になったんですが、「Deep Learning の世界」のシリーズって、どのレベルの人を対象として考えていますか?
@AIcia_Solid
@AIcia_Solid Год назад
興味ある人なら誰でも!というつもりで生成しています。 特に、理解を志向する人がよく見てくださっているかなと思っています👀 実装経験、勉強経験、微積や線形代数の基礎知識がある方がわかりやすいだろうなと思っています😊
@manabirisu
@manabirisu Год назад
@@AIcia_Solid そうだったんですね!! ありがとうございます!(*^^*)
@chrono25bcelp
@chrono25bcelp 2 года назад
Self-Attentionの動画の説明もしていただけないでしょうか?
@AIcia_Solid
@AIcia_Solid 2 года назад
Transformer のことですか? であればこちらに! ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-50XvMaWhiTY.html 違う場合はお教えください!
@るうー-u1i
@るうー-u1i 3 года назад
Attentionの日本語訳は注目のほうがしっくり来るような気がするけどなんで注意って訳になるんだろう
@AIcia_Solid
@AIcia_Solid 3 года назад
うーむ、たしかに、そうですね、考えたことありませんでした😮 なぜなのでしょう、、、、、?🤔
@kentoo_1
@kentoo_1 3 года назад
これって文章でない普通の数値データにも使えるのですか?
@AIcia_Solid
@AIcia_Solid 3 года назад
このモデルは文章等の系列データへの適用が普通だもおもいます。 こいつの進化形である Transformer は、言語のみならず様々な分野に利用されていて、すごいことになっていたりはします!
@tbet2365
@tbet2365 2 года назад
いつもめちゃくちゃつよつよだから、やらかしてると人間味を感じる...!! (AIだけど)
@AIcia_Solid
@AIcia_Solid 2 года назад
AI だからたまに間違えちゃうんですよ〜😋
@companiontravelingkitsune
@companiontravelingkitsune 2 года назад
この人の動画もっと登録者増えていいよね?
@AIcia_Solid
@AIcia_Solid 2 года назад
でしょ!😍 ぜひ広めていただけると嬉しいです🤩
@この顔にピンときたら-g8l
かなり気になってたやつ
@AIcia_Solid
@AIcia_Solid 3 года назад
お待たせしました😎😎😎
@えんちゃん-s5l
@えんちゃん-s5l 3 года назад
申し訳ございませんが、attentionの解説で出てくるエンコーダー末尾の「意味ベクトル」と、都度毎に生成される「単語ベクトル」の関係が良く理解できません。そもそも単語ベクトルとは、word2vecで生成されていると理解してましたが、それとどう違うのでしょうか?
@AIcia_Solid
@AIcia_Solid 3 года назад
なるほど🤔 なにか、いくつか、勘違いが積み重なっているような気がします🤔 単語ベクトルは、Attention においては、 word2vec ではなく bidirectional GRU の出力が利用されています。 ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-IcCIu5Gx6uA.html が考え方の参考になるかもしれません。 いかがでしょうか? 疑問は解決しましたか?
@えんちゃん-s5l
@えんちゃん-s5l 3 года назад
@@AIcia_Solid 早速のご返信、感謝いたします。系列→意味の符号化、それが意味ベクトルですね。一方で、単語ベクトルがbidirectionnal GRUの出力ということは、同じ単語でも文脈により異なるベクトルが生成されるという意味でしょうか?
@AIcia_Solid
@AIcia_Solid 3 года назад
その通りです!
@えんちゃん-s5l
@えんちゃん-s5l 3 года назад
@@AIcia_Solid そうしますと、ある文脈でのエンコーダー末尾の意味ベクトルは、その文脈でbidirectionnalに可変される単語ベクトルの集大成をギュッと圧縮したものですね?また、今日では自然言語処理の世界でブレイクスルーだったword2vecは、見向きもされないという理解でしょうか?
@AIcia_Solid
@AIcia_Solid 3 года назад
Attention ではそのベクトルは使いません。 RNN での seq2seq では利用し、その通りです! word2vec は今も場面に応じて利用されます。 現実には、なにか最新手法が全てにおいて優れるということはなく、モデルの性質に応じて適材適所に利用されています。
@zenith-g1f
@zenith-g1f Год назад
非常に有益な情報ありがとうございます! 純粋に疑問なのですが、アイシアさんは、どのようにしてこのような知識を得ているのでしょうか? 自分も体系的に勉強していきたいのですが、教材選びで迷っています。
@AIcia_Solid
@AIcia_Solid Год назад
私の場合は、当時、この Qiita 記事にある論文をぜんぶ上から読んでいました。 わからない概念が出てきたら、調べたり、原論文をあたったりしながら、全ての内容を理解しながらすすめるようにしていました。 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7 こんな感じで、特に工夫なしです。 つまらない回答で恐縮ですが、参考になれば!
@りくぼん-t7i
@りくぼん-t7i 3 года назад
Deeplearningの世界の動画を理解してアウトプットするのにおすすめの方法はありますでしょうか?
@AIcia_Solid
@AIcia_Solid 3 года назад
やはり好きな課題で使ってみることが最良です! 手持ちのデータと課題に対して適用してみたり、kaggle などのコンペに出るのもいいと思います😊
@食用お味噌汁
@食用お味噌汁 3 года назад
ここテストに出まーす!とか あ、ゼミでやったところだ!とか 結果でないわけないやん(笑) コツを教えてもらうんやから
@AIcia_Solid
@AIcia_Solid 3 года назад
まさにそうですね😎✌️
@食用お味噌汁
@食用お味噌汁 3 года назад
@@AIcia_Solid 偉そうな言い回しで申し訳ありませんね!😎✌️
@ckenhilla5154
@ckenhilla5154 4 месяца назад
人工知能界隈は、ヘンなカタカナ造語が少なくて、なじみのある単語が多いので良いですね。
@AIcia_Solid
@AIcia_Solid 4 месяца назад
ご視聴コメントありがとうございます😊 そう、、、だと、良いんですけどね、、、🤯 たまに変なやつもあるので、まぁ、人によるのかもしれません🤯🤯🤯(笑)
@imyour1602
@imyour1602 3 года назад
生放送お疲れ様でした。動画とはあまり関係ないのですが、kaggleについてのおすすめの動画とおすすめの書籍とウェブサイトを教えていただけたら幸甚です。
@AIcia_Solid
@AIcia_Solid 3 года назад
ご視聴コメントありがとうございます!😍🎉🎉 kaggle については、私はこれがおすすめです。 amzn.to/2PdeOPn ただ、一方、 kaggle については、なんでもいいから始めることと、忍耐強く継続することと、時間を投下することの方が重要で、学びかたなどのファクターはそんなに大事ではないと思います。 よき kaggle ライフを!
@imyour1602
@imyour1602 3 года назад
ありがとうございます!忍耐強く楽しんでやります!
@ssdm444
@ssdm444 3 года назад
すごくどうでもいいことなんですが,アリシアちゃんて脚だけ男っぽい笑
@AIcia_Solid
@AIcia_Solid 3 года назад
足の動きは自動生成でそうなってしまうのです😇😇😇 ちなみにわたしはアイシアです!
@sinuture
@sinuture 3 года назад
あの脚めちゃくちゃエッッッッだと思いませんか?
@黒川優輝
@黒川優輝 Год назад
メモ transformer の前に見るやつ
@AIcia_Solid
@AIcia_Solid Год назад
ナイスメモ😎 ご視聴コメントありがとうございます! ぜひ色んな動画を楽しんでいただけたら嬉しいです!
@fairhearty2900
@fairhearty2900 2 года назад
ありがとうございます!
@AIcia_Solid
@AIcia_Solid 2 года назад
ご視聴コメントありがとうございます! そして、ご支援もいただきとっても嬉しいです!😍 これからも勝ちある動画を投稿し続けられるよう精進しますので、是非応援の程よろしくお願いします!
Далее
Deep Learning入門:Attention(注意)
15:39
Просмотров 77 тыс.