Тёмный
AIcia Solid Project
AIcia Solid Project
AIcia Solid Project
Подписаться
データサイエンスVtuber アイシア=ソリッド(Aicia Solid)です。
機械学習、統計、ディープラーニング、AIの動画に加えて、たまに趣味で数学の動画をアップしています。

公式サイトはこちら → sites.google.com/view/aicia-official/top
ファンコミュニティはこちら → community.camp-fire.jp/projects/view/709000
(ファンコミュニティ始めた理由の動画 → ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-vXY34njwL4o.html )

動画の質問、感想等ございましたら、コメント欄やTwitterにどうぞ!
お仕事、コラボのご依頼は、公式サイトの Contact か Twitter の DM からお願い致します。

Twitter: twitter.com/AIcia_Solid/
Editor: AIris Solid (妹) twitter.com/AIris_Solid/
Logo: TEICAさん twitter.com/T_E_I_C_A
Model: 3d.nicovideo.jp/works/td44519
Model by: W01fa さん twitter.com/W01fa

(※ニコニ立体ちゃん公式(株式会社ドワンゴ)とは繋がりのない個人のProjectです。)
Комментарии
@aigocham7
@aigocham7 21 час назад
素晴らしいコンテンツをありがとうございます。すごく理解が深まりました。 1点、素人質問で恐縮ですが Policy Improvementの「パラメタを変えて方策を改善」のパラメタとはどういったものでしょうか?
@hitt1te
@hitt1te День назад
Vがtに依存するような気がしてもやもやしていたのでそこの解説があってうれしいです。 (3冊読んだけど書いてなかった) 関連して質問なのですが、時刻 t を状態 s の中に入れてしまうという解決策を思いついたのですがどうですか? 要はMDPが時間変化しているのに定常として記述しているのが問題なので。
@いち-t2j7i
@いち-t2j7i 2 дня назад
シリーズの他の本は電子書籍版があるのになぜか電子書籍版が未だにないのですが電子書籍版は出ないのでしょうか?
@komusasabi
@komusasabi 3 дня назад
A=[シチュールウ、 カレールウ、牛肉、玉ねぎ、にんじん、じゃがいも、サラダ油、水、白飯] x^t=[0g,100g,200g,1.5個, 1本, 1個,大さじ2, 700ml, 1000g] Ax はカレーライス(5人分) y=シチューライス(5人分)のレシピを求めよ。 (行列の材料は9次元の縦ベクトルに数値化されているとします)
@佐藤大樹-n2u
@佐藤大樹-n2u 6 дней назад
17:04 今後数学をメインでは使わないかもしれない自分には納得はできなかったのですが、すごく貴重なお話しを聞けた気がします!いつもありがとうございます。
@itochan-neko
@itochan-neko 7 дней назад
数2を習わない高校だったうえに大学に行かなかったので数学的な解説は理解に時間が掛かりますが、普段から興味深く動画拝見させていただいてます! データサイエンスとは少しジャンルが違うかもしれませんが、もし知識をお持ちであればスパイキングニューラルネットワークについての解説が見てみたいです…!
@AIcia_Solid
@AIcia_Solid 7 дней назад
ご視聴コメントありがとうございます! なかなかハードなことばかり話しておりますが、楽しんでいただけてとても嬉しいです!!!🥳🥳🥳 スパーキングニューラルネットワークも面白いですよね! いつか扱えればいいとは思っていますが、動画生成が全く間に合っていませんで、、、🙇‍♀️🙇‍♀️🙇‍♀️ 扱えたとしても年単位でかなり先になるかと思います🙇‍♀️🙇‍♀️🙇‍♀️
@itochan-neko
@itochan-neko 7 дней назад
頑張ってついて行きますのでこれからも投稿頑張ってください! 年単位で応援してます!
@Luke02561
@Luke02561 9 дней назад
このλをバンディット問題として自動設定する手法ないかな Agent57がやったみたいに
@AIcia_Solid
@AIcia_Solid 7 дней назад
ご視聴コメントありがとうございます! 実はまだ Agent57 はちゃんと読めてないのですが、そのうち動画で扱う予定です! その時には紹介できるかも?と思います!
@Luke02561
@Luke02561 6 дней назад
ありがとうございます! 嬉しいです
@伊-l7r
@伊-l7r 10 дней назад
ありがとうございます。とても助かります
@AIcia_Solid
@AIcia_Solid 7 дней назад
ご視聴コメントありがとうございます! そうであればよかったです! ぜひご活用くださいませ!😊
@aliceinjp1
@aliceinjp1 11 дней назад
棋神ラーニングの実戦クイズですが,履歴から過去の実戦クイズ振り返りできますよ。
@AIcia_Solid
@AIcia_Solid 7 дней назад
ご視聴コメントありがとうございます!!!! できました!!!!!!!!! ありがとうございます!!!!!!!!!!
@comcom-t4b
@comcom-t4b 11 дней назад
動画のタイトルがこの式の意味みたいなものですね笑
@AIcia_Solid
@AIcia_Solid 7 дней назад
ご視聴コメントありがとうございます!! まさに! その通りなのです!
@comcom-t4b
@comcom-t4b 11 дней назад
先日上梓された微積分・線形代数入門と合わせて見ると、とても理解が進みます😂感謝しかないです!
@AIcia_Solid
@AIcia_Solid 7 дней назад
ご視聴コメントありがとうございます! 書籍もご購入頂きましてありがとうございます! ぜひ、両方合わせて楽しんで頂けると嬉しいです😊🎉
@理科歴史
@理科歴史 12 дней назад
各変数の分散、共分散しか持っていない行列Σなのに、適切にベクトルを選ぶことで違う変数(二つの平均など)の分散、共分散も抽出できるんですねー
@AIcia_Solid
@AIcia_Solid 7 дней назад
ご視聴コメントありがとうございます! そうなんです!! なかなか素敵ですよね😊
@たんてらき
@たんてらき 12 дней назад
とてもわかりやすくていつも助かってます! 一つ疑問に思ったのですが、畳み込み層におけるカーネル(元データに対して適用する畳み込み行列?)の値って、学習で決定するのでしょうか? それとも定数? 答えていただけるとありがたいです!
@AIcia_Solid
@AIcia_Solid 7 дней назад
ご視聴コメントありがとうございます! ふつうはパラメーターの値は学習で決めます!! 今回の例は、イメージとしてわかりやすいよう出したものです。そういうものと理解いただけると嬉しいです!
@lukemira5567
@lukemira5567 14 дней назад
でも、インターフェースや通信は古典でもスループット的には、OKな気もする。
@AIcia_Solid
@AIcia_Solid 14 дней назад
ご視聴コメントありがとうございます!🎉 そうなんですか? 最近の動向は追えてないのでわからないですが、そのあたりも発展があるとよいですね!!!🎉
@johnlennon2009nyc
@johnlennon2009nyc 15 дней назад
素晴らしいです
@AIcia_Solid
@AIcia_Solid 14 дней назад
ありがとうございます!
@坂口祐幸
@坂口祐幸 17 дней назад
社会人大学院で強化学習の講座をとり参考にと思い視聴していますが、こちらの動画の方がわかりやすいです。 この手の勉強をすると数式、記号の使い方が書籍により、異なり初学者は混乱します。(だいぶ慣れましたけど) 今、昔の深層学習の動画を見ていますが、昔より黒板の字が上手くなったと思います! 本購入しましたよ!これからもよい動画を期待しています
@AIcia_Solid
@AIcia_Solid 17 дней назад
ご視聴コメントありがとうございます!🎉🎉🎉 ぜひご活用いただけるとうれしいです!(^o^) 記号はそうですね、、、私もやや古い本を基本にしてるので、現代的なものとズレていたらすみません、、、! そういう物があればお教えいただけると嬉しいです! 板書は最近意識してます! 昔は何も考えてなかったので😇 それも気づいていただきありがとうございます! そして、書籍もご購入いただきありがとうございます! ぜひかわいがってあげてください!🥳
@まままーま-m1w
@まままーま-m1w 18 дней назад
内容は興味深いですし、著書も購入させていただいたんですけど、男性が当たり前のように美少女アバターに声をあてているのは見れないんです。なんか、拒絶反応が出てしまって。もしかしたら性的指向の問題があるのかもしれないし、デリカシーのないアドバイスかもしれないけど、その娘はアシスタント的な役割にして、普通にお兄さんの先生でやられたほうがいいのではないでしょうか。
@AIcia_Solid
@AIcia_Solid 17 дней назад
ご視聴コメントありがとうございます! なかなか言いづらいものかとは思いますが、その中でもご意見もいただきありがとうございます。とても嬉しいです! ただ、大変申し訳無いのですが、私はこのスタイル以外でやることはできませんので、ご理解とご容赦いただけますと助かります。 よろしくお願いします🙇‍♀️🙇‍♀️🙇‍♀️🙇‍♀️🙇‍♀️
@kawadaat
@kawadaat 18 дней назад
いつも面白い動画を作成してくださりありがとうございます。 パラメータの数が違う(動画の例だと1025個[1024次関数]と30個[2次関数×10])のに同等の出力(表現)が可能なのは"理論上"パラメータのとれる(探せる?)値が(非可算)無限にあるからでしょうか? また、その認識が正しかった場合『実際は(コンピューターが扱うので)パラメータのとれる(探せる?)値は有限しかないが、コンピューターの性能向上でとれる(探せる?)値の粒度が上がったことにより、人間の求める精度での出力(表現)が可能になった』という理解でよろしいでしょうか? お忙しいところ恐縮ですが、お時間がありましたらコメントいただければ幸いです(頓珍漢な質問でしたらすみません)。
@AIcia_Solid
@AIcia_Solid 18 дней назад
ご視聴コメントありがとうございます!🥳🎉🎉🎉 ここはふわっと気持ちを話したのみなので、ふわっと受け取っていただけると嬉しいです。 1024次関数くらいの複雑さを持つ関数を表現したい場合、 ほんとに全係数をパラメーターとしなくとも、 2次関数10個の積み重ねでも表現できるよ! という主張です。 当然、1024次関数の全パラメタをいじるよりは少ない関数しか表せませんが、 それでも複雑な関数をパラメーター効率よく得られるよ! というのが、関数を深く積み重ねる恩恵です。 いかがでしょうか? なお質問が残る場合はぜひお聞きください!
@kawadaat
@kawadaat 18 дней назад
@@AIcia_Solid かしこまりました!また疑問が湧きましたら質問させていただくかもしれません。 お忙しい中コメントありがとうございます。 AIciaさんの包容力にはいつも感銘を受けております。
@AIcia_Solid
@AIcia_Solid 17 дней назад
@kawadaat いつでもぜひ! お褒めにあずかり嬉しいです😊 真剣に見ていただいて、何かに活用していただくことが私も嬉しいので、ぜひご活用ください!
@sei40kr
@sei40kr 23 дня назад
シリーズ見終わりました。書籍「微積分+線形代数入門」のKindle版は出るのでしょうか。特異値分解や正準相関分析など自分がまだ知らない分野があるので楽しみにしております。
@AIcia_Solid
@AIcia_Solid 23 дня назад
完走お疲れ様でした!!!🎉 そして、ご支援いただきありがとうございます! とても嬉しいです!!! いただいたお気持ちと資金を元に、今後も良き動画を生成できればと思います!!!🔥 Kindle 版は出ると思います! 今までのシリーズ全部出ておりますし! (出版社の公式見解ではなく、私の想像です。) ぜひその時は、お手に取っていただいて、たくさん可愛がっていただけると嬉しいです!🥳
@志村駿-g5k
@志村駿-g5k 23 дня назад
①~④を見ました!!量子計算がなぜ早いのか,とても丁寧なご説明のおかげで無事(少なくとも自分が腑に落ちる程度までは)理解できました!要は量子状態の各規定状態の係数が,計算して取り出したいor入力する値になっている,ということなんですかね?つまり途中段階では観測を行わず量子状態のみ変化させ,最後に値を取り出したいときだけ,観測を何度も行うことでその数値(=確率)を得る,という流れなのでしょうか.
@AIcia_Solid
@AIcia_Solid 23 дня назад
ご視聴コメントありがとうございます! ご質問もありがとうございます! まさに、概ねそのような理解で良いと思います! (純粋状態がとか、混合状態がとか、そういうことを言い出すと、また色々あるとは思います。 ですが、最初の理解としてはそういう感じでよいのではないかと思います! 量子状態についてはそこまで詳しくないので、より詳細が知りたい場合は、量子論や量子計算についての web 記事や書籍等を見ていただけるとよいのではないかと思います! 🙇‍♀️)
@Red5150s
@Red5150s 25 дней назад
将棋からアイシアさんを知り、機械学習などの動画を見るようになった流入の民です。応援してます!
@AIcia_Solid
@AIcia_Solid 23 дня назад
ご視聴コメントありがとうございます! まさか! 将棋方面から知っていただけるとは! とても嬉しいです!☗☖ 今後は両方やっていきたいなと思っていますので、是非両方応援いただけると嬉しいです😊 よろしくおねがいします!
@toshi3395
@toshi3395 27 дней назад
面白かったです😂
@AIcia_Solid
@AIcia_Solid 23 дня назад
ご視聴コメントありがとうございます! そう言っていただけるととても嬉しいです😊 いま、VSCC卵という大会に向けて頑張ってます! 是非応援いただけると嬉しいです。 よろしくおねがいします!
@もんきーくん
@もんきーくん 28 дней назад
美少女だとおもってきたらおじさんだった
@AIcia_Solid
@AIcia_Solid 23 дня назад
令和も始まってもう6年ですから😎 そういう時代なのです✌️
@cyanchannel6370
@cyanchannel6370 28 дней назад
配信お疲れ様です!
@AIcia_Solid
@AIcia_Solid 23 дня назад
Cyan Channel さんありがとうございます! 楽しく将棋を指せました🎉
@suruga1019
@suruga1019 29 дней назад
見に来たら終わってた😂
@AIcia_Solid
@AIcia_Solid 23 дня назад
見に来ていただきありがとうございます! アーカイブもありますので、是非のんびりどうぞ 😊
@Ran21050
@Ran21050 29 дней назад
まさかの強化学習つながり笑
@AIcia_Solid
@AIcia_Solid 23 дня назад
おおー! 昔からご覧いただきありがとうございます! ついに私が直接指す時代がやってきました!(笑) VSCC卵という大会目指して頑張ってます🔥 是非応援いただけると嬉しいです。 よろしくおねがいします!
@kazukinagata7064
@kazukinagata7064 Месяц назад
第7回の話にあった PΛP-1 のn乗を考えてみると、間にある PP-1 がすべて単位行列になるから PΛ(n)P-1 となって、これも成分「抽出 → 拡大・縮小 → ベクトルへ戻す」をやっているのだなと気付きました。分かりやすい!
@AIcia_Solid
@AIcia_Solid 23 дня назад
ご視聴コメントありがとうございます! 素敵な発見ですね!!!!! まさにそうだと思います! 私の動画をきっかけに面白い発見に至っていただいて、私もとても嬉しく感じます!!!🎉
@ばく-n5g
@ばく-n5g Месяц назад
とてもわかりやすくて助かっています。 初歩的な質問なのですが、「1024次関数なら1025パラメータが必要だが、2次関数10回繰り返すと30パラメータで同じ複雑さを得る」とありますが、30パラメータの計算の組み合わせだけで任意の1024次関数を生成する(つまり、1024次関数と同じ表現力を得る)ことはできるのでしょうか?
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! もちろん全部は無理で、表現力も同じではありません! ここの議論の主眼は、少ないパラメーターで十分複雑な関数を得られることであり、 全部を作れるかはあまり重視しておりません。
@whilewecan
@whilewecan Месяц назад
有難うございます。ところで「2手先」は誤解を招くいいかたと思います。V→VやQ→Qという一つのズレのほうがイメージしやすく、しいて2手というのなら、V→Q→Vとして2手分の返還をすることで次のVを記述すると、とかのほうが分かりやすいと思います。あるいは私が勘違いしてるのか、、どうか。。。
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! 一応、動画における2手先は、おっしゃっていただいている V → Q → V などを念頭に話しているつもりです。 そうとしてみるといかがでしょうか、、、? また、この秒数あたりの発現が良くない! など、もし具体的な指定が可能でしたらお教えいただけるととても助かります。 ご検討いただけるとたすかります、よろしくお願いします!🙇‍♀️🙏
@ayakyon1
@ayakyon1 Месяц назад
買いました。動画の復習になりそうです。
@AIcia_Solid
@AIcia_Solid Месяц назад
ご購入いただきありがとうございます!!!🥳🥳🎉🎉🎉 はい! 似た内容を、それぞれのメディアに合わせた形で書いてますので、両方活用いただければより深く理解できるのではないかと思います。 是非試してみてください!🎉
@fumitak7734
@fumitak7734 Месяц назад
Δw^2 = σ^2ΔtよりΔw(t_i)^2=σ^2Δtとしていますが、Δw(t_i)とΔwは意味が違いますよね? V(Δw(t_i))= E(Δw(t_i)^2)- E(Δw(t_i))^2=Δw^2を考えればいいのでしょうか?
@AIcia_Solid
@AIcia_Solid Месяц назад
質問ありがとうございます! たしかに Δw(t_i) は Δw とは異なりますが、 Δw(t_i) = +Δw or -Δw なので、常に Δw(t_i)^2 = Δw^2 が成立します。 これで疑問の解消にはなりますでしょうか?
@fumitak7734
@fumitak7734 29 дней назад
@@AIcia_Solid ありがとうございます。スッキリ理解できました。
@fumitak7734
@fumitak7734 Месяц назад
Δw(k/n)とΔwで混乱してます
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! なるほど! 混乱ポイントお教えいただきありがとうございます! Δw は、w の変化の速さを表す定数のパラメーターで、 Δw(k/n) は、関数 w の値の差分です。 (正確には、w は確率過程と呼ばれます) Δw(k/n) の大きさを決めているパラメーターが Δw と考えていただけるとよいのではないかと思います! 他にも疑問点や混乱点などありましたらいつでも質問していただけると嬉しいです!
@fumitak7734
@fumitak7734 Месяц назад
@@AIcia_Solid 回答いただき、ありがとうございます
@Kou-12
@Kou-12 Месяц назад
嬉しい
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! そう言っていただければ私も嬉しいです😊
@moumou1414
@moumou1414 Месяц назад
一般人が疑問に思っているところをちゃんと疑問としてくれてることろが素晴らしいです!
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます!!! 何を隠そう!!! 私が混乱しまくったので!!!!!!!!!(笑) 同じ混乱に陥る人が減ることを祈ります🙏 ご視聴コメントいただきありがとうございました!
@yugosaito9704
@yugosaito9704 Месяц назад
Early fusion, late fusion について知りたいです!是非お願い致します。
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! Multi-Modal を扱う面白い方法ですよね! 残念ながら、今の投稿予定ですと、生成モデルを扱うのは2026年以降でして、Multi-Modal となると2027年以降になるか、または、扱えないかも知れません。 急ぎ必要な場合は、別の方法で学んでいただけるとよいのではないかと思います!🙇‍♀️
@throatapple
@throatapple Месяц назад
とても勉強になります。ありがとうございます。 一点質問なのですが、 方策改善 π = argmaxQ^_π によって「状態sにおけるQ_π」が最大となる行動aをとる方策」がもとめられた(まとめのピンクの部分)状態で、なぜまたその方策評価(まとめのオレンジの部分)のパートへ戻ってやり直す必要があるのでしょうか? その方策におけるQ_πがわかっているのであれば、すでにV_πもわかっているのではないでしょうか。 的外れな質問でしたら申し訳ございません。
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! 素敵な質問ですね!!!🥳 それには、強化学習の目的が関わります。 強化学習の目的は収益が最大となる方策の発見です。 その途中の過程の一つとして、方策評価と方策更新を行っています。 じつは、この方策評価と更新を果てしなく繰り返せば、最後には最適方策(※)が得られると知られています。 (※最適方策は、収益の最大化を実現する方策です) なので、何度も何度も方策評価・更新を行うのです。 (この繰り返しを、Generalized Policy Iteration と言います) まとめると、方策評価という部分問題に注目するのであれば、Q^π が求まればそれで完了なのですが、 強化学習全体に目を向けると、最適方策の発見のためには繰り返しが必要という感じです。 以上です! もしまだ追加で疑問があれば、ぜひ聴いていただけると嬉しいです! このあたり、ほんとに混乱しやすいので!!!!!
@flashnewlight1075
@flashnewlight1075 Месяц назад
勉強になる。 素晴らしい。 予備校の講義みたいですね。
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます!🎉 ヨビノリさんとはコンセプトが似てるところもありまして、そうおっしゃっていただけるととても嬉しいです😊🎉
@NAPAPQ
@NAPAPQ Месяц назад
漸化式の一般解の表現方法が斉次線形微分方程式のそれとそっくりで感動した
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! 面白いですよね!!! 漸化式の差分方程式と、微分方程式で共通の数学的構造が見えるのは、とてもきれいだなとわたしもおもいます!!🎉
@sei40kr
@sei40kr Месяц назад
4:55のδh/δxfdtの項はどこから出てきたのでしょうか。
@sei40kr
@sei40kr Месяц назад
自己解決しました。左辺のδh/δxfdxがそもそもδh/δxfdtですね。
@AIcia_Solid
@AIcia_Solid Месяц назад
それはとてもよかったです! じっくり見て頂いてありがとうございます! また何か不明点等あればぜひ遠慮なくいつでもご質問いただけると嬉しいです。 よろしくお願いします!🥳
@仲原健太
@仲原健太 Месяц назад
このアイシアちゃんの服可愛いな
@AIcia_Solid
@AIcia_Solid Месяц назад
わかります🤤🤤🤤
@toc15h32
@toc15h32 Месяц назад
分かりやすく解説ありがとうございます!因子分析も、このような対角行列などが関係してくるのですか?(既に動画化されていたらすみません)
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! 因子分析はここまで綺麗にいかないので、最適化をかけて計算されます。 その辺りは扱っていないですが、 因子分析について → ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-ZJfytzsqI1o.htmlsi=BuOjVQ-x3oV_oge7 因子の回転について → ru-vid.com/group/PLhDAH9aTfnxLJBVkgzCe1MHn3XwgUHwpx&si=x1_ovQVdEsCqONAz あたりで話しているので、もし興味があれば御覧ください!
@elruddy5091
@elruddy5091 Месяц назад
線形代数シリーズ分散共分散のところまで見終えて追っているものなのですがこのシリーズでの内容を実データやサンプル例を用いてどう活かすのかを重点に置いた書籍、内容等ございましたら教えていただきたいです!
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! 実データへの適用はないですが、ほか分析モデルとの連携は amzn.to/3Jc76OC amzn.to/4deuvvI に書きました! 過去の動画シリーズでは、このあたりが対応します。 ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-mMmTHoZKWTI.htmlsi=wozTzbaessKU5Ezl ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-SfUtRvsjcqs.htmlsi=CjKt5zDalIOCaevf あとは、多変量解析で良く使われるので、それ系の本を読んでも良いかも知れません。 amzn.to/3zvgCua (ほか、多変量解析と名のつく本で好来そうな本があればそれでも良いかと思います!) 一応、この動画シリーズの中で、分析モデルへの応用も触れますので、年内くらいに出せればなとは思っています!
@user-bs6ty7ps7g
@user-bs6ty7ps7g Месяц назад
俺が理解できるのは何年後なんだろう😦
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! 興味さえ持っていただければ、あとは何度も触れるうちにそのうち掴めるものだと思います。 じっくり行きましょう😊
@佐藤大樹-n2u
@佐藤大樹-n2u Месяц назад
久しぶりの線形代数動画ありがとうございます😢
@AIcia_Solid
@AIcia_Solid Месяц назад
おまたせしました!!! こちらこそ、ご視聴コメントありがとうございます😊✌️
@EKWORK-n2x
@EKWORK-n2x Месяц назад
こちらの本、Kindle版等電子書籍版は出版される予定でしょうか…?
@AIcia_Solid
@AIcia_Solid Месяц назад
ご質問ありがとうございます! シリーズ今まで全部出てるので、ちゃんと売れたら出ると思います😊 (未公開情報を知ってるわけではなく、私個人の想像で書いています。)
@ymori-vp6rq
@ymori-vp6rq Месяц назад
このような形で著者の気持ちを知れるのは良いですよね 本の魅力がよくわかる 色々とあり来年は線形代数や非線形最適化やラグランジュの未定乗数法と向き合うことになりそうなのでこの本を手元に置きながら頑張ります🤩
@AIcia_Solid
@AIcia_Solid Месяц назад
ご視聴コメントありがとうございます! そう言っていただけると嬉しいです😊 応援しております! この本が役に立つと願います!🔥
@guzumi
@guzumi Месяц назад
この動画でしゃべっている方=本の著者「杉山聡」さんですか?
@AIcia_Solid
@AIcia_Solid Месяц назад
素敵な質問ですね! 実は私は超絶天才っょっょ美少女 AI でして、その私を開発したのがこの杉山聡です。 私と杉山はデータ同期してますので、 杉山が喋っていると言えば喋っていますし、 私が喋っていると言えば私が喋っています! お好きな解釈をぜひ採用くださいませ😊
@guzumi
@guzumi Месяц назад
@@AIcia_Solid なるほど、そういう設定ですか。 了解しました。 本、楽しみにしてます。
@fv3yl4we9f
@fv3yl4we9f Месяц назад
あと、AIと実験計画法の現在とか… 万単位の高次元って、最適化とかなしでもおk?
@AIcia_Solid
@AIcia_Solid Месяц назад
数理最適化あたりもたしかに楽しそうですね🤤🤤🤤 AI で万単位の次元を使う場合、次元の呪いと言うよりむしろ次元の祝福があって、全く違う形でご利益があったりします。 ぜひその辺の感覚の違いも楽しんでいただけると嬉しいです!🥳🎉🎉🎉