Pronikněte do tajů strojového učení! Nabízíme ucelený studijní program k získání praktických znalostí a zkušeností pro návrh a vývoj vlastních machine learning řešení pro začátečníky a středně pokročilé. Kromě středoškolské matematiky a znalosti programování v Pythonu nepotřebujete žádné předchozí zkušenosti.
predpokladam spravne ze vlastnosti jednotlivych prvkov sa vyhodnocuju numericky takze si najprv treba zadefinovat pravidlo ktore urci mieru splnenia atributu?
3 года назад
Ne všechny metody strojového učení vyžadují číselné atributy. Některé dokáží pracovat i s kategorickými atributy (např. barvy, dny v týdnu apod.). Existují ale způsoby jak kategorické proměnné snadno převést na číselné hodnoty (třeba one-hot-encoding).
@ ale aj farby, ci dni v tyzdni su v konecnom dosledku v pc len cislo takze v programe treba definovat trebarz kolko ma byt red zlozka a kolko green, alebo da sa to aj inak?
3 года назад
@@Ясотка-ф3т Da se to udelat i jinak. Prave pres ten one-hot-encoding. Misto jednoho atributu, ktery muze nabyvat n hodnot se vytvori n atributu, kde kazdy muze nabyvat hodnot 0 nebo 1.
Jen malá chybka: kolem času 11:00, kde přepisujete f(s) do závorky v té sumě, by mělo být minus u parametru b. Ale to nic nemění na tom, že to video bylo jako pohlazení po duši po letech opět vidět kousek matematiky ;-) Perfektně vysvětleno! Děkuji! Jdu koukat na Vaše další videjka ;-)
MALA OTAZKA ak vypočítam backpropagation a vypočítam ako prvé zmenu váhy poslednej vrstvy tak ci tu predposlednú ratám z novou hodnotou váh alebo z tou starou pôvodní hodnotou ?
Proč ve čtvrté minutě počítáme tu derivaci? Abychom ji pak položili rovnou nule, čímž vyjde lokálně optimální váha w11? Pokud je to tak, musíme pak vůbec počítat ty předchozí nenulové členy de/dy, df/dx a používat je jako mezivýsledky?
Ten gradient počítáme proto, abychom věděli, jakým směrem se vydat v algoritmu Steepest Gradient Descent (vysvětlený zde: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-6oK_4YORiZI.html). Nepokládáme ho nule. Kdybychom chtěli hledat lokální extrémy řešením soustavy rovnic, kde je každá parciální derivace položena nule, dostali bychom u dnes běžných sítí soustavu o desítkách milionů až miliard rovnic. V reálu se používají chytřejší algortimy než prostý SGD. Jejich snahou je co nejvíce omezit uvíznutí v nějakém "hloupém" lokálním extrému, ale pořád jsou to jen heuristiky, které do globálního optima většinou nevedou.
Za mě mezi nimi velký rozdíl není. Pojem data mining vznikl o něco dříve než machine learning a používala ho trochu jiná komunita vědců. V zásadě se ale u obou používaly stejné techniky. Možná trochu pocitově, data mining je více o hledání častých vzorů v datech, zatímco machine learning více o predikcích.
Oprava chyb: a) všechny sumy mají být od 1; b) v definici chybové funkce má být rozepsaná funkce f(s) v závorce. Pokud najdete další chyby, napište je prosím sem do komentářů.