Тёмный
Machine Learning College
Machine Learning College
Machine Learning College
Подписаться
Pronikněte do tajů strojového učení! Nabízíme ucelený studijní program k získání praktických znalostí a zkušeností pro návrh a vývoj vlastních machine learning řešení pro začátečníky a středně pokročilé. Kromě středoškolské matematiky a znalosti programování v Pythonu nepotřebujete žádné předchozí zkušenosti.

www.mlcollege.com
5 Evaluační metriky
22:51
4 года назад
4 Problém přetrénování
21:54
4 года назад
3 Logistická regrese
23:57
4 года назад
2  Regresní analýza
18:38
4 года назад
1 Co je strojové učení?
8:35
4 года назад
Комментарии
@dislikemike1151
@dislikemike1151 Год назад
Hezky vysvětlená metoda nejmenších čtverců
@michaela1077
@michaela1077 Год назад
Prosím, kam se poděl 3.díl?
@jirimaterna1185
@jirimaterna1185 Год назад
Nikam nezmizel :) ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-wWTzohbKQ24.html
@inhustle_media
@inhustle_media 2 года назад
Krásně vysvětleno, děkuji!
@karelsukup2824
@karelsukup2824 2 года назад
Moc díky za video. Excelentně vysvětleno. Moc mi to pomohlo ve studiu tohoto náročného oboru. Ještě jednou díky!
@karelsukup2824
@karelsukup2824 2 года назад
Placený kurz je stále k dispozici prosím?
@jfhjhrhrhrb
@jfhjhrhrhrb 2 года назад
co znamená to d v 13:28 min
2 года назад
To je označení derivace. Viz cs.wikipedia.org/wiki/Z%C3%A1pis_derivace
@Ясотка-ф3т
@Ясотка-ф3т 3 года назад
predpokladam spravne ze vlastnosti jednotlivych prvkov sa vyhodnocuju numericky takze si najprv treba zadefinovat pravidlo ktore urci mieru splnenia atributu?
3 года назад
Ne všechny metody strojového učení vyžadují číselné atributy. Některé dokáží pracovat i s kategorickými atributy (např. barvy, dny v týdnu apod.). Existují ale způsoby jak kategorické proměnné snadno převést na číselné hodnoty (třeba one-hot-encoding).
@Ясотка-ф3т
@Ясотка-ф3т 3 года назад
@ ale aj farby, ci dni v tyzdni su v konecnom dosledku v pc len cislo takze v programe treba definovat trebarz kolko ma byt red zlozka a kolko green, alebo da sa to aj inak?
3 года назад
@@Ясотка-ф3т Da se to udelat i jinak. Prave pres ten one-hot-encoding. Misto jednoho atributu, ktery muze nabyvat n hodnot se vytvori n atributu, kde kazdy muze nabyvat hodnot 0 nebo 1.
@Ясотка-ф3т
@Ясотка-ф3т 3 года назад
@ vdaka za info ale stale mi z toho vyplyva ze je to praca s cislami
3 года назад
@@Ясотка-ф3т Ano, nakonec je to vzdy prace s cisly :)
@jachymvacek3464
@jachymvacek3464 3 года назад
Moc děkuji za vysvětlení ( - ;
@bohuslavparobek3372
@bohuslavparobek3372 3 года назад
Zložitá problematika ,jednoducho vysvetlená, Komenský môže byť na vás hrdý
@pavelhartl7506
@pavelhartl7506 3 года назад
Jen malá chybka: kolem času 11:00, kde přepisujete f(s) do závorky v té sumě, by mělo být minus u parametru b. Ale to nic nemění na tom, že to video bylo jako pohlazení po duši po letech opět vidět kousek matematiky ;-) Perfektně vysvětleno! Děkuji! Jdu koukat na Vaše další videjka ;-)
@tomasrivera4945
@tomasrivera4945 3 года назад
Dobrý den, budete s těmito webináři pokračovat? Jsou zajímavé.
@jiristangl7433
@jiristangl7433 3 года назад
srozumitelně vysvětleno. Děkuji
@SamuelBachorik-Mrtapo8-ApeX
@SamuelBachorik-Mrtapo8-ApeX 3 года назад
Super videa ! Spravte ešte Gradient descent a loss function!
@MILKOMAXX
@MILKOMAXX 3 года назад
MALA OTAZKA ak vypočítam backpropagation a vypočítam ako prvé zmenu váhy poslednej vrstvy tak ci tu predposlednú ratám z novou hodnotou váh alebo z tou starou pôvodní hodnotou ?
3 года назад
budete počítat s tou novou hodnotou
@redalertCZ
@redalertCZ 3 года назад
Krásně vysvětleno. Ve škole, při probírání dané problematiky, na nás vyrukovali s testy na rakovinu... hned na první dobrou. :)
@jachcraft3745
@jachcraft3745 4 года назад
Perfektní
@nekdo9590
@nekdo9590 4 года назад
:O Konečně jsme se dočkali :D
@DusanJanovsky
@DusanJanovsky 4 года назад
Kolem času 18 mi chybí nějaké nakopnutí, jak snadno spočítat tu parciální derivaci. Asi bych to nakonec vymyslel, ale těšil jsem se na to ve výkladu.
@DusanJanovsky
@DusanJanovsky 4 года назад
Proč ve čtvrté minutě počítáme tu derivaci? Abychom ji pak položili rovnou nule, čímž vyjde lokálně optimální váha w11? Pokud je to tak, musíme pak vůbec počítat ty předchozí nenulové členy de/dy, df/dx a používat je jako mezivýsledky?
@MachineLearningCollege
@MachineLearningCollege 4 года назад
Ten gradient počítáme proto, abychom věděli, jakým směrem se vydat v algoritmu Steepest Gradient Descent (vysvětlený zde: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-6oK_4YORiZI.html). Nepokládáme ho nule. Kdybychom chtěli hledat lokální extrémy řešením soustavy rovnic, kde je každá parciální derivace položena nule, dostali bychom u dnes běžných sítí soustavu o desítkách milionů až miliard rovnic. V reálu se používají chytřejší algortimy než prostý SGD. Jejich snahou je co nejvíce omezit uvíznutí v nějakém "hloupém" lokálním extrému, ale pořád jsou to jen heuristiky, které do globálního optima většinou nevedou.
@DusanJanovsky
@DusanJanovsky 4 года назад
Jo jasně. Dík.
@nekdo9590
@nekdo9590 4 года назад
Už se těším na neuronky.
@MachineLearningCollege
@MachineLearningCollege 4 года назад
Oprava: Ve videu několikrát říkám, že zkratka MAE znamená Mean Average Error. Správně je to samozřejmě Mean Absolute Error.
@nekdo9590
@nekdo9590 4 года назад
Kdy bude další díl?
@MachineLearningCollege
@MachineLearningCollege 4 года назад
Snad už příští týden:)
@nekdo9590
@nekdo9590 4 года назад
@@MachineLearningCollege Super!
@davidchudan1633
@davidchudan1633 4 года назад
Díky, hezký úvod. Mohl byste přidat ještě vymezení data miningu, resp. vztah data mining a machine learning, v čem by osobně vidíte rozdíl?
@MachineLearningCollege
@MachineLearningCollege 4 года назад
Za mě mezi nimi velký rozdíl není. Pojem data mining vznikl o něco dříve než machine learning a používala ho trochu jiná komunita vědců. V zásadě se ale u obou používaly stejné techniky. Možná trochu pocitově, data mining je více o hledání častých vzorů v datech, zatímco machine learning více o predikcích.
@davidchudan1633
@davidchudan1633 4 года назад
@@MachineLearningCollege Díky, vidím to s těmi termíny podobně.
@MachineLearningCollege
@MachineLearningCollege 4 года назад
Oprava chyb: a) všechny sumy mají být od 1; b) v definici chybové funkce má být rozepsaná funkce f(s) v závorce. Pokud najdete další chyby, napište je prosím sem do komentářů.
@HOMOHLAVA
@HOMOHLAVA 4 года назад
Super!