Тёмный
sim0nsays
sim0nsays
sim0nsays
Подписаться
Комментарии
@omarapacanadhih
@omarapacanadhih 18 дней назад
Лучшие лекции по DL, которые я видел (а я видел много...)
@psimera
@psimera Месяц назад
ох уж эти проблемы из 2к19, кошечку от собачки отличить) сейчас бы отличить настоящую кошечку от нарисованной нейросетью)
@Gluon-zy4ir
@Gluon-zy4ir Месяц назад
Да-да)
@Enerdzizer
@Enerdzizer 2 месяца назад
36:05 странный вывод, неужели reward не зависит от параметров модели? То есть функция f(x) не зависит от тета? Если это мгновенный reward то ок, он зависит только от того в каком мы состоянии находимся. Но обычно же вознаграждение считается с учетом будущих reward. Если ориентироваться только на текущий мгновенный reward так тут очевидная стратегия это попытаться подобрать параметры так чтобы попасть в максимальный reward ну или если выбор параметров в параметризационной модели не позволяет попасть точно в точку с максимальный reward, то тогда подобрать параметры так чтобы максимизировать средний ожидаемый reward. Это что именно это и имеется ввиду? Звучит как-то не очень, с учетом того что надо опять же учитывать и будущие reward. Ps кажется разобрался. Вообщем, все верно в видео. Функция f(x) зависит от траектории x, и никак не зависит напрямую от параметра тета, но вот распределение траекторий зависит! Грубо говоря если мы бросаем кубик несимметричный с вероятностями не одна шестая а одна шестая минус тета , а где-то плюс тета, то если наше вознаграждение это выпадение четного числа очков, то это вознаграждение никак не зависит от тета, несимметричности кубика, а зависит только от выпавших очков. Но вот вероятность вознаграждения уже зависит от тета…
@dicloniusN35
@dicloniusN35 3 месяца назад
Офигенно, жалко что пропал(
@СергейРоспатнюк
@СергейРоспатнюк 6 месяцев назад
Цитирую бро тебя "Значит после того как мы поделили на p мы значит замечаем что вот эта штука да это тоже самое что логарифм что производная логарифма" плз бро после этого вообще слушать не хочется ни чего ! пожалуйста пиши текст за ранее не неси какой то херни, лучше выглядеть так что ты читаешь с бумажки чем выглядеть немного дураком. То что ты обладаешь материалом я не сомневаюсь, но то что ты его сам осознаешь вот это вопрос как минимум лично с моей стороны ) не принимай за хейт плз ))
@СергейРоспатнюк
@СергейРоспатнюк 6 месяцев назад
Если нет вопросов, наверно кране не логично думать что их нет совсем, может стоит предположить о том что люди не могут их во время сформулировать и задать ? Смотрю вот твое видео и мне нравится если чего то кому то не понятно то может стоит уточнить в комментариях ? добрые люди подскажут я так думаю, Ещё очень интересно то что по всей видимости вся нейронка построена на исключительно грязных функциях, "но это не точно"
@Евгений-о9ч1р
@Евгений-о9ч1р 6 месяцев назад
Здравствуйте. Пытаюсь сделать задание по лекции. Решений вроде бы нет в сети. Споткнулся на этом этапе: # TODO Implement combined function or softmax and cross entropy and produces gradient loss, grad = linear_classifer.softmax_with_cross_entropy(np.array([1, 0, 0]), 1) check_gradient(lambda x: linear_classifer.softmax_with_cross_entropy(x, 1), np.array([1, 0, 0], np.float_)) Нет ли тут ошибки? В данном случае check_gradient всегда проверяет численное значение градиента для компонента с target_index = 1. Но функция check_gradient ничего не знает о target_index и сравнивает численное значение этого градиента с аналитическими значениями градиента и по другим компонентам. И получается, что проверка всегда будет выдавать Gradients are different, если только target_index не равен номеру проверяемого компонента. Не нужно ли функции check_gradient передавать target_index напрямую, чтобы сравнивать только соответствующие значения градиентов? Или я не понял и сделал неправильно.
@leowhynot
@leowhynot 7 месяцев назад
полезно периодически пересматривать. что и делаю) какие-то детали не сразу запоминаются. спасибо за видео!
@evolution_31
@evolution_31 10 месяцев назад
Не совсем понятно, ок из replay memory набрали батчи, как входы подаём состояния в нейросеть, но как выходы у нас же вектор а вы говорите Y как скалярная величина реварда считается, как рассчитывать ошибку от других действий как сформировать полный вектор Y нейросеть? По сути мы только у конкретного действия вычислили так сказать необходимый ревард, что делать с остальными выходами и непонятно как мы можем заменить в softmax одно из значений не трогая остальные, в сумме они же 1 должны давать или как?
@АлександрВальвачев-я6ъ
@АлександрВальвачев-я6ъ 10 месяцев назад
Послушайте как сам Хинтон объясняет. ПаттерЕр - шедевр.
@МарийанБийелич
@МарийанБийелич 10 месяцев назад
А что если у нас входы в ноду являются зависимыми друг от друга (т.е. в ноде, в которую поступают сигналы x и y есть некоторая неизвестная зависимость y = f(x))? То есть в случае скоррелированности входных сигналов мы не сможем использовать так просто производную сложной функции.
@karimkaa
@karimkaa 10 месяцев назад
Поправка: UNet перебрасывает слои не на слои такого же размера, а на слои другого размера с кропом
@for_honor_and_courage3394
@for_honor_and_courage3394 Год назад
крутая лекция, спасибо!
@ДжашауМаршанкулов
Не все то что вы видите! Надо говорить о том что вы хорошо знаете.
@vg8-j1f
@vg8-j1f Год назад
Про метрики важно еще знать: F1 - Equal weight on precision and recall F0.5 - More weight on precision, less weight on recall F2 - More weight on recall, less weight on precision
@РусланТопорков-й1п
Блин это генеально просто все формулы записывать за видеовставкой......
@fentan6806
@fentan6806 Год назад
Ужасный курс, хочется очень сильно оскорбить автора.
@АлександрЛебедев-ы1э8б
@АлександрЛебедев-ы1э8б 10 месяцев назад
почему?
@fentan6806
@fentan6806 10 месяцев назад
Объяснение начинается как новичку, а потом резкий скачёк сложности, без объяснений. Если нет бэкграунда работы с нейросетями, курс бесполезен. Советую лучше почитать книгу "Создаём нейронную сеть" Тарика Рашида, её @foo52ru рекомендовал.
@Ciel187
@Ciel187 Год назад
какой тип данных трудно приблизить?
@Поздравления-н1х
ТОООООООООООООООООООООООООООООООООООООООООООООООООООООООООООООООООООООООООООП!!!!!!!!! КАК КРАСИВО!!!!
@ЕвгенийБорисов-е1ч
ChatGPT уже цветёт и пахнет и уже 4-я версия вышла)))
@Yuriy627
@Yuriy627 Год назад
2:11
@grosshypno
@grosshypno Год назад
Если вырезать все "значит" значит и повторы значит по два раза по два раза и так далее и так далее, то можно можно сделать еще ааа одно полуторочасовое, да? полуторочасовое значит видео про нейросети, да? Ну то есть значит видео ааа видео и так далее и так далее. Спасибо за всё кроме этого )
@art-brawlstars7771
@art-brawlstars7771 Год назад
Прекрасное объяснение, спасибо!
@IExSet
@IExSet Год назад
Скоро потребуется переводчик с суржика на русский, есть такой "ток", есть "лэеры", главное в этом "конволюшене"...кого обычно обзывают "чурками", обычно тех кто плохо говорит на русском языке, думаю большая часть не виновата, ведь это не родной и очень сложный язык, но некоторые родной язык превращают в чурецкий суржик 🤣
@AliBaba__
@AliBaba__ Год назад
Rtx 2070 достаточно для lstm ?
@bmax721
@bmax721 Год назад
Early stopping = "Не учи учёного"
@marky200024
@marky200024 Год назад
Отлично обьсяняешь! Ждем продолжения с обзором более актуальных технологий
@alexanderskusnov5119
@alexanderskusnov5119 Год назад
серебрити по-русски знаменитости
@alexanderskusnov5119
@alexanderskusnov5119 Год назад
Формула для Ф-меры это среднее гармоническое (т.е. обратная величина - среднее арифметическое двух других обратных величин). Другие средние: среднее арифметическое (сумма), среднее геометрическое (произведение).
@alesten_
@alesten_ Год назад
Курс огнище. Очень хорошая подача, отличный материал. Это лучший онлайн-курс, который я проходила. Отдельно хочется отметить домашки: как же круто в них сделана система самопроверки и постепенного развития сложности. Для курса, без постоянно поддерживаемой инфраструктуры с контестером - очень изящное решение. Одно удовольствие их решать. Спасибо!
@romans5833
@romans5833 Год назад
какие же шикарные лекции! Поделитесь, пожалуйста, вашим опытом в 22 году.
@tima_net3289
@tima_net3289 Год назад
Простите, но эта лекция была просто ужасна, у Юрия не получилось толково и доступно объяснить тему speech recognition, но все остальные лекции просто ТОП, Семен - прекрасный учитель, после каждой лекции пользовался статьями, чужим кодом, сам разбирал каждую тему и все получалось
@leowhynot
@leowhynot 2 года назад
офигенная лекция. все понял!
@Bakuretso
@Bakuretso 2 года назад
19:44 подскажите пожалуйста! Не понимаю, если в тензоре, как я понял, просто выписываются элементы последовательно в матрицу 1 на 8, то по какому принципу разворачиваются веса в матрицу 2 на 8?
@stanislaustankevich5445
@stanislaustankevich5445 Год назад
тоже не понимаю. вы разобрались? может материал какой подбросите? :)
@romansvirid
@romansvirid 2 года назад
в Adam velocity преобразуется на основе предыдущего значения. а какое у него значение изначально?
@romansvirid
@romansvirid 2 года назад
разобрался, изначально это 0
@gobals8925
@gobals8925 2 года назад
Раз уж лектор коснулся этой темы - насколько актуальна информация в курсе на 09.2022?)
@tima_net3289
@tima_net3289 2 года назад
Очень актуальна
@_Mephistophilus
@_Mephistophilus 2 года назад
Превью умилительные
@senkamatic8448
@senkamatic8448 2 года назад
Спасибо огромное ☺
@VasArkady
@VasArkady 2 года назад
Стоит пояснить, что за функция random в инициализации весов методом Xavier. Веса должны быть нормально распределены с мат ожиданием 0 и дисперсией 2/(in_num+out_num)
@leowhynot
@leowhynot 2 года назад
А есть где-нибудь задания, которые выполняли студенты курса? Хотелось бы пощелкать
@zzzCyberzzz
@zzzCyberzzz 2 года назад
Какие хорошие способы представления для многоканального временного ряда есть? Я для себя нашел CWT c morl и MTF. Очень неплохо в CNN это работает. Ещё может что-то лучше есть? GAF преимущества не дал дополнительных. Как правильно CNN совместить c LSTM и attention для таких задач, есть ли вообще в них смысл? Как правильно делать агументацию для временного ряда?
@zzzCyberzzz
@zzzCyberzzz 2 года назад
Прикладных примеров не хватает. Голая теория не очень интересна. Нужно прям в коде показать как делается и как работает. Что есть в библиотеках и как пользоваться. Про self-attention хотелось бы подробнее как делать.
@zzzCyberzzz
@zzzCyberzzz 2 года назад
Интересно не только применительно к тексту примеры смотреть, а и для обработки многоканальных сигналов.
@zzzCyberzzz
@zzzCyberzzz 2 года назад
Немного не хватает примеров на ты или торсе или керасе. Возникают вопросы, если несколько каналов, как оно изнутри работает и что на выходе. И что задаёт размер lstm слоя, вроде глубину? Ну и там параметры остальные есть интересные, которые на примерах хорошо бы посмотреть. И можно ли делать перемешивание в батче?
@zzzCyberzzz
@zzzCyberzzz 2 года назад
почему обычно в конце больших CNN не более двух полносвязных слоев? Чтоб избежать затухания градиента? И BN обычно в них не ставят?
@zzzCyberzzz
@zzzCyberzzz 2 года назад
Если у меня на входе не 3, а 28 каналов (ну так получилось осле FFT), то мне доступ к предобученным сетям типа VGG зарыт? Или можно как--то извратиться и свести к 3 каналам?
@zzzCyberzzz
@zzzCyberzzz 2 года назад
Если на обучающем наборе точность растет, а на тестовом остановилось и не уменьшается, то это переобучение или сеть достигла своих максимальных возможностей в обучении?
@rizef2166
@rizef2166 2 месяца назад
переобучение кнш, но как понимаю такое маловероятно
@rizef2166
@rizef2166 2 месяца назад
Ну и ответ очень своевременный)
@aleksgor1408
@aleksgor1408 2 года назад
Просто офигенная лекция и лектор крутой.
@vitall789
@vitall789 2 года назад
Скоро будут создавать игры чтоб в нее играли нейронки.
@trader_iks
@trader_iks 2 года назад
Начало 7:54