Тёмный
Cybrnetics Ukraine
Cybrnetics Ukraine
Cybrnetics Ukraine
Подписаться
Cybernetics Ukraine - the official channel of V.M. Glushkov Institute of Cybernetics of National Academy of Sciences of Ukraine, which is dedicated to scientific developments, seminars, lectures and research activities.
Комментарии
@АнатолійСергієнко-ш9б
@АнатолійСергієнко-ш9б 5 месяцев назад
Чув про це як ОГАС
@OrganizationOfTheGenusUa
@OrganizationOfTheGenusUa 5 месяцев назад
Від своєї прабабусі чув таку казочку❤ що Бог колись давно дав українцям не тільки кращу землю а ще дав курочок які несли золоті яйця❤ і от прочули про ціх курочок люди по всьому світу ❤і почали всіма правдами і неправдами виманювати цих курочок собі❤але на чужині ці курочки починали нестися звичайними яйцями❤ тоді вони почали селитися разом з українцями і так перевелися ті курки❤ але кажуть що коли українці згадають про тих курочок і зберуться до купи то курочки знов почнуть нести золоті яйця❤ що Ви про це думаєте дорогі українці чи час дії
@ДжонКонэр
@ДжонКонэр 8 месяцев назад
Ого😮. Цікаві факти, дякую❤👍. Як зробити освіту більш доступною для бідних і старіючих людей?☺. Дякую за вашу працю🙏
@eolit1o
@eolit1o 8 месяцев назад
Дякую що виклали.
@olegmytnyk4988
@olegmytnyk4988 9 месяцев назад
Не знаю чи будуть доречні мої коментарі тут. Випадково натрапив на лекцію. Зацікавив сам субградієнтний метод. Але друга частина з задачею регресії дуже поверхнева. Декілька зауважень: - років 20 назад цей метод було б актуально застосувати для негладкої функції втрат в регресіїї опорних векторів (така стаття б мала шанси попасти на ICML конференцію), зараз це можливо вже не актуально для іноземної аудиторії. - регуляризація потрібна завжди, а не тільки коли кількість параметрів більше ніж кількість спостережень. Регуляризація має більш глибокий зміст і відіграє роль апріорного розподілу параметрів, якщо задачу інтерпретувати в термінах байесівської теорії прийняття рішень (те що називається Bayesian inference). - питання про вибір функції втрат і доданку регуляризації ключове для задачі регресії і вже існує дуже багато досліджень на цю тему. - питання про вибір моделі/ядер цікаве теж, але на практиці дійсно лінійна регресія дуже часто виявляється найкращою. - можливо я щось пропустив але у Вас при розтягненні простору не враховується доданок регуляризації який має однаковий коефіцієнт ("скалярний параметр регуляризаціїї" на слайді) для всіх параметрів (я б очікував що коефіцієнт для параметру індивідуальний і змінюється пропорційно розтягненню). Я дозволю собі порадити почитати про GPR (Gaussian Process Regression) авторів Malte Kuss, Carl Edward Rasmussen. Там є дуже гарні пояснення чому L2 це найкращий вибір в багатьох випадках.
@ИванЧекмарёв-ц7д
@ИванЧекмарёв-ц7д 11 месяцев назад
То, что надо!
@philipr3011
@philipr3011 Год назад
'Promo sm' 😞