Тёмный

【10分で分かる!】統計学と機械学習の違いについて徹底解説!目的の違いを明確に理解しておこう! 

スタビジ【誰でもAIデータサイエンス】byウマたん
Просмотров 36 тыс.
50% 1

統計学と機械学習の違い
toukei-lab.com/machinelearnin...
この動画では、統計学と機械学習の違いについて簡単に解説していきます。
この手法は機械学習で~この手法は統計学で~というように手法ベースで考えていってしまうと曖昧になってしまうのですが、これら2つの領域の目的・スタンスを明確にしておくことで違いが見えてきます。
この動画では、3つのパートに分けて解説しますよ!
・統計学と機械学習の違い
・統計学と機械学習を使い分ける場面
・どんな手法が統計学と機械学習で使われるのか
【視聴ガイド】
02:00 統計学と機械学習の違い
03:40 統計学と機械学習を使い分ける場面
05:10 どんな手法が統計学と機械学習で使われるのか
05:50 統計的検定
06:26 線形回帰分析
07:06 主成分分析
08:10 決定木
08:28 ランダムフォレスト
08:42 Xgboost
【この動画で覚えて帰って欲しいコト】
・統計学と機械学習の違いは手法ではなく目的の違いで判断しよう
・統計学は現在のデータの構造を解釈することが目的の領域である
・機械学習は将来のデータの予測精度を高めることが目的の領域である
サイトの方でもっと踏み込んだ説明やプログラミング実装をおこなっています。URLを記載しておくのでぜひのぞいてみてください!
■スタビジ
スタビジは「データサイエンスをもっと身近なものに!」をモットーにデータサイエンスの面白さを発信しているチャンネルです。
チャンネル登録はこちら↓
/ @aiby8596
■サイト(データサイエンスを発信するメディア)※旧:統計ラボ
toukei-lab.com/
・統計学と機械学習の違い
toukei-lab.com/machinelearnin...
・統計学入門
toukei-lab.com/statistics-fre...
・機械学習入門
toukei-lab.com/machine-learni...
・統計的検定
bit.ly/311FPsx
・回帰分析
bit.ly/37RrArJ
・主成分分析
toukei-lab.com/pca
・決定木
bit.ly/37RrEaX
・ランダムフォレスト
bit.ly/3fkLq0Z
・XGBoost
toukei-lab.com/xgboost
・決定木について
bit.ly/3fjIRwg
■関連動画
・統計学入門
• 【9分で解説】ビジネスに活かせる統計学の基礎...
・機械学習入門
• 【超入門】機械学習をビジネスの例も出しながら...
■「コスパよくデータサイエンスを学べるスクール」スタビジアカデミー
toukei-lab.com/achademy
■Twitterアカウント
ウマたん@スタビジ: / statistics1012
■私が講師のUdemy講座
以下の記事に私が講師を務めるAIやデータサイエンス関連の講座一覧をまとめています!
toukei-lab.com/my-udemy-course
この記事内限定で全ての講座が安くなる講師クーポン(最大94%OFF!)を公開していますのでご受講の際はぜひお使いください!
■出版書籍
・俺たちひよっこデータサイエンティストが世界を変える
amzn.to/36XbMFJ
・【入門】Pythonを覚えてエリートリーマンへ!落ちこぼれリーマンの逆転劇:amzn.to/31drMyU
・おばあちゃんがWebマーケティングを勉強して雑貨屋をV字回復!
amzn.to/3vG3tqC
・漫画で分かるデジタルマーケティング ✕ データ分析
amzn.to/44iT84Q
・データサイエンス大全 -シンプルにわかる49の用語と13の実践
amzn.to/3mFzhwG

Опубликовано:

 

20 июн 2020

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 26   
@aiby8596
@aiby8596 3 года назад
【視聴ガイド】 02:00 統計学と機械学習の違い 03:40 統計学と機械学習を使い分ける場面 05:10 どんな手法が統計学と機械学習で使われるのか 05:50 統計的検定 06:26 線形回帰分析 07:06 主成分分析 08:10 決定木 08:28 ランダムフォレスト 08:42 Xgboost
@KohheyTAKEOKA
@KohheyTAKEOKA 2 года назад
本当に理解できたのか疑うくらいわかりやすすぎる。
@chaaahc
@chaaahc 3 года назад
漠然と学習していましたが それぞれの違いからその役割を何となく理解し整理することができました。
@aiby8596
@aiby8596 3 года назад
よかったです!ありがとうございます。
@user-jo8tv2nt9x
@user-jo8tv2nt9x 4 года назад
わかりやすいです!!
@aiby8596
@aiby8596 4 года назад
ありがとうございます!!
@lifeinnovationlab.1544
@lifeinnovationlab.1544 10 месяцев назад
とてもわかりやすい!!本を読むよりこの動画!ですね。これが無料というのはあり得ない。。すばらしいです。あありがとう!!!
@aiby8596
@aiby8596 10 месяцев назад
ありがとうございます!励みになります!
@user-dt5xw8fv4h
@user-dt5xw8fv4h 3 года назад
機械学習は、ITの要素を取り込んで統計学の一部について結果を重視する方向に発展させたものと思ってます。統計学から派生したものではないと思いますが。 このところは結果の解釈性も求められるようになり、本来の統計的要素の重要性も増していて、さらに境目が曖昧になっている印象です。
@aiby8596
@aiby8596 3 года назад
ありがとうございます!おっしゃる通りですよねー!
@user-cs6ls7hx9g
@user-cs6ls7hx9g 2 года назад
単なる数字から、data⇒information⇒intelligenceとする過程で統計学は必要で、その昔、第一次石油ショックの頃、需要の予測から生産計画システムで使う先行指標を求めるためにFORTRANでプログラムを書いたことがありますが、対象とする目的というか業務を理解しているか否かが問われると思います。その手段としての統計と理解しています。機械学習・・・機械が自律的に学習するのでしょうか?あまりピンときません・・・
@SOSHINA-KAMIATSU
@SOSHINA-KAMIATSU 3 года назад
統計モデリングの回帰分析、重回帰、一般化線形混合モデルなどは、統計学の線形回帰分析の中に位置づけられるという解釈で合っていますか?
@aiby8596
@aiby8596 3 года назад
一般化線形混合モデルの中に一般化線形モデルがあり、その中に一般線形モデル(これがいわゆる線形回帰分析)があり、そして単変数であれ単回帰、多変量であれば重回帰になります。 回帰分析というとより定義が広くなるのですが重回帰分析を指すことも多いです。 機械学者領域でも回帰タスクなのか分類タスクなのか問われるように回帰という言葉時代は量的変数をターゲットにしたモデル構築という定義になります!
@aiby8596
@aiby8596 3 года назад
分かりづらいですよね・・・説明変数が複数の解析手法を総じて多変量解析と定義します。厳密にはパラメトリックもノンパラメトリックも変数の数で多変量解析なのかそうでないのか決まりますね。数量化1類も実は単変量なら多変量解析の定義には当てはまらないですが、多変量解析とくくってしまっていいと思います。
@user-mw3lh5kk3v
@user-mw3lh5kk3v 3 года назад
私は経済学部の学生ですが大学院では統計学を専攻したいです。
@aiby8596
@aiby8596 3 года назад
是非頑張ってください!
@user-yf6xt4nm9s
@user-yf6xt4nm9s 3 года назад
統計ど素人なんですが、最小二乗法で回帰直線求めるっていう記述を読みました でもこれって機械学習では誤差逆伝播使って微分して最小値求めて……ってやるやつですよね? 公式もあるようなので最小二乗法使えば楽なのに、なぜ機械学習手法使うのでしょうか? と疑問に思いました
@aiby8596
@aiby8596 3 года назад
観測値と予測値の差を小さくするという意味では統計学的アプローチも機械学習的アプローチも一緒です! 最小二乗法は観測値と予測値の平均二乗誤差を最小化するアプローチです。 誤差逆伝播法はあくまでディープラーニングで使われる最適化のアプローチに対して効率よく最適解を求めるためのテクニックであり最小二乗法とは粒度が違います ディープラーニングにおいて損失関数を平均二乗誤差にすれば最小二乗法と同じ考え方で最適化していくことになります。 ただ、ディープラーニングではパラメータ数やデータ数が多いので、最適化のために単純に偏微分して・・・では難しく勾配降下法と誤差逆伝播法で最適解を求めます!
@user-yf6xt4nm9s
@user-yf6xt4nm9s 3 года назад
丁寧な説明ありがとうございます
@user-sf3ts2wt8l
@user-sf3ts2wt8l 2 года назад
4:54
@marcopatricio1329
@marcopatricio1329 3 года назад
南米チリから見てます!
@aiby8596
@aiby8596 3 года назад
ありがとうございます!!チリ行ってみたいです!
@user-pm1us5xf1d
@user-pm1us5xf1d 3 года назад
統計学も機械学習もサイコー (^^)/
@aiby8596
@aiby8596 3 года назад
ありがとうございます!
@user-ug8vo6rw1m
@user-ug8vo6rw1m 3 года назад
なんでツリー構造の機械学習しか紹介してないんだ
@aiby8596
@aiby8596 3 года назад
ななしのあおあふ たしかにwすいません!全部ツリー構造ですね。。nn、svmあたりも入れておくべきでした
Далее
Кто понял тот понял
00:24
Просмотров 192 тыс.