Тёмный
Start Career in DS
Start Career in DS
Start Career in DS
Подписаться
Комментарии
@escapedraccoon8507
@escapedraccoon8507 19 часов назад
Сложнослайд😅 огонь термин
@СергейХромин-у4м
@СергейХромин-у4м 22 дня назад
Для кого непонятен вывод на 10:53 Latex-code: Это почти логистическая регрессия, проведем ряд формул Исходный функционал с логарифмами $-\sum_{i=1}^l[y_i=-1]log\sigma(<w,x_i>) + [y_i=1]log(1 - \sigma(<w,x_i>)) =$ Подставим сигмоиду $-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-<w,x_i>)} + [y_i=1]log(1 - \frac{1}{1 + exp(-<w,x_i>)}) =$ Приведем дробь к общему знаменателю в $log(1 - \frac{1}{1 + exp(-<w,x_i>)})$ и проделаем несложные операции с дробями $-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-<w,x_i>)} + [y_i=1]log(\frac{1}{1 + exp(<w,x_i>)}) =$ Воспользуемся свойством логарифма $log(1/x) = -log(x)$ - пропадет минус перед суммой $\sum_{i=1}^l[y_i=-1]log{1 + exp(-<w,x_i>)} + [y_i=1]log({1 + exp(<w,x_i>)}) =$ Слогаемые отличаются только знаком, заметим, что знак перед скалярным произведеним противоположени со знаком индикатора, то есть мы можем просто убрать разделение, заменив знак обратным $y_i$ $\sum_{i=1}^l log(1 + exp(-y_i \times<w,x_i>))$
@ealbitg1043
@ealbitg1043 Месяц назад
Почему при вычислении производной в первом уравнении Xw стало X^T? На 6:26
@ЕвгенийСитников-ц4з
Очень интересно но ничего не понятно:-(
@d90021
@d90021 Месяц назад
нихуя не понял
@mikochergin3698
@mikochergin3698 2 месяца назад
Хорошее видео. На последнем слайде опечатка: в столбце про мошенников в разделе "Таргет" дублируется текст из столбца "Антиспам". А должно быть: 0 - мошенническая операция, 1 - обычная операция.
@Stesigerl
@Stesigerl 2 месяца назад
Лучше написать квадрат нормы: |Xw-y|^2, а не (Xw-y)^2.
@Stesigerl
@Stesigerl 2 месяца назад
просто оптимальный, не может быть наиболее или наименее оптимальный. Оптимум - он один!
@ИероглифСтёршийся
@ИероглифСтёршийся 2 месяца назад
Ребята, не слушайте его, он вас только запутает! 01:24 - это называется не НАБОР а МНОЖЕСТВО. "Множество пар" - ты математику то подучи чтоле... 03:38 - столюбцы ЧЕГО? Ты про что и где столбцы не говорил ещё? - Есть какое-то видео где про столбцы и заборчики рассказываешь - давай ссыль. 03:56 - что-то нигде в математике мне не говорили, что такое '"подход скелер" или "метод скелер", а я технический вуз закончил на отлично -- ты тоже не говорил пока. Ты с какой орбиты ведешь трансляцию, бро? 04:36 - так скелер это такой прибор (ну типа линейки). "инициализтировать скелер" это как? - Из коробки достать чтоле? Как это запоминать мне параметры? Параметры чего? Выборке чего? Train - а поезд тут причём? - Трава дорогая? 04:44 - ой там какой-то код програмный, ну конечно я должен догадаться какой, все же так умеют. Ну вангую что это Py. 06:19 - "Раскрыть значение этого функционала" - воспаде это на футболку печатать. Родной мой, тебя бросает то в математику, то в программирование, то в простые какие-то вещи, то в уродливые химеры из терминов которые твоя голова генерирует - А В ГОЛОВЕ У ТЕБЯ КАША! Я не говорю что материал ты НЕ знаешь, т.к. даже с такой кашей, ты можешь всё внутри себя как-то понимать, но матерь божья тебя огороди от необходимости что-то объяснять. Чтоб объяснить как сварить суп, надо понимать что такое кастрюля - без этого никак.
@ВладимирКолодницкий-у6ф
Иньеста уже не тот...
@plwthme
@plwthme 4 месяца назад
очень доступно, спасибо!
@mikhailzhitnikov3715
@mikhailzhitnikov3715 4 месяца назад
[yi=+1] это boolean [0,1]?
@AlexxandrGrudinin
@AlexxandrGrudinin 4 месяца назад
Не понятно как мы нашли веса в начале видео🤔что предсказывали то? если мы строим обычную регрессию, то нам ведь нужен какой-то таргет, для которого мы уравнение линейной регрессии строим.
@freedomtv2295
@freedomtv2295 3 месяца назад
так тут таргет это и есть столбец который определяет к какому классу принадлежит объект, просто мы его в [0,1] переводим сигмоидой
@Тимыч-я1р
@Тимыч-я1р 5 месяцев назад
Подскажите, пожалуйста, когда будет видео про бустинг?
@Тимыч-я1р
@Тимыч-я1р 5 месяцев назад
Спасибо большое, наконец-то я понял, что такое логрег
@Имяифамилия-з4ю
@Имяифамилия-з4ю 5 месяцев назад
Датушкин Валерий Саенсолович
@zarinaiztay3954
@zarinaiztay3954 6 месяцев назад
Спасибо, очень понятно объяснили
@РоманКучерявий-е7э
@РоманКучерявий-е7э 6 месяцев назад
Спасибо большое, очень хорошо обьясняешь
@ИгорьИгорь-к3ы1р
@ИгорьИгорь-к3ы1р 7 месяцев назад
Круто, спасибо ! Очень напоминает CV, Yolo, нейросети )
@sofesun6747
@sofesun6747 7 месяцев назад
🔥
@stroganova_irina
@stroganova_irina 7 месяцев назад
Благодарю, интересно
@caseygold1283
@caseygold1283 7 месяцев назад
Что там за лютый дедушка был, что даже Валерию до него далеко
@Lubov6135
@Lubov6135 8 месяцев назад
Какое полезное видео. Спасибо большое
@AlexanderIgityan
@AlexanderIgityan 8 месяцев назад
ебанат, линейная не потому что линейно относительно фич а относительно базисных функций
@AlexanderIgityan
@AlexanderIgityan 8 месяцев назад
Отмечу, что линейную регрессию называют линейной именно из-за линейной комбинации базисных функций - это не связано с самыми базисными функциями (они могут быть линейными или нет).
@seriouspetrovich7113
@seriouspetrovich7113 8 месяцев назад
7:59 если мы двигаемся в сторону антиградиента, то почему в итоговой формуле для весов берём тот градиент, который был посчитан выше? Перефразирую - не нужно ли было убрать минус перед двойкой?
@Wmysterion
@Wmysterion 8 месяцев назад
Интересное видео + отсылки на брекин бэд, класс
@СергійКот-э7ф
@СергійКот-э7ф 9 месяцев назад
Видео понравилось, но ни хуя не понятно !
@viktorzubarev3072
@viktorzubarev3072 9 месяцев назад
Вопросы супер)
@pm6778
@pm6778 10 месяцев назад
Спасибо за видео, хорошо рассказываете, правда я ничего не понял, но это только потому что я неуч.
@evolutlut2587
@evolutlut2587 11 месяцев назад
Дисклеймер: данное видео о том, как убить свою самооценку за 14 мин😂
@start_ds
@start_ds 11 месяцев назад
Почему?)
@danilarudnev2768
@danilarudnev2768 11 месяцев назад
Спасибо большое очень помогли!
@taburet9
@taburet9 11 месяцев назад
Очень круто! Я туповат, но здесь настолько всё по полочкам разложено, что почти всё понял! Спасибо огромное!
@name57913
@name57913 Год назад
Курсы, курсы... Как на счёт книг?
@ValeriiBabushkin
@ValeriiBabushkin 10 месяцев назад
Написана - издана в апреле
@LukyTexan
@LukyTexan 8 месяцев назад
@@ValeriiBabushkin можно подробнее про книгу? И вообще так я и не понял какие курсы стоящие для тех, кто только начинает?
@АлександрЛебедев-ы1э8б
Круто! Спасибо за подробные объяснения вещей, которые зачастую просто называют, не объясняя сути
@start_ds
@start_ds Год назад
t.me/start_ds - Тут публикуются материалы для прокачки скиллов в DS и подготовки к собеседованиям. Пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
@IT_Kochevnik
@IT_Kochevnik Год назад
ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-lVExqfuDXc8.html
@3_ton843
@3_ton843 Год назад
Спасибо огромнейшее за понятный и интересный разбор этой темы! С нетерпением буду ждать следующих видео :)
@start_ds
@start_ds Год назад
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
@start_ds
@start_ds Год назад
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
@start_ds
@start_ds Год назад
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
@start_ds
@start_ds Год назад
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
@генпол
@генпол Год назад
Шортсы отличный формат👍
@start_ds
@start_ds Год назад
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
@3_ton843
@3_ton843 Год назад
Спасибо за понятное объяснение и наглядные иллюстрации! Очень понравилась серия роликов про линейную регрессию. Хотелось бы увидеть серию роликов про классификацию в Вашем исполнении :)
@roman6572
@roman6572 Год назад
Как относятся к работникам даиасаентистам, которые бегают из конторы в контору?) спасибо)
@ValeriiBabushkin
@ValeriiBabushkin Год назад
нужно дать определение, что такое бегать из конторы в контору. В целом нашел следующее - Average tenure at Google has been reported at 1.1 years и even global tech giants often struggle with low employee tenure. Most have a median employee tenure of only one or two years.
@roman6572
@roman6572 Год назад
@@ValeriiBabushkin та ситуация, в которой по моим ощущениям, не требуется давать определения из гугла). В целом спасибо за контент, интересно слушать и смотреть 👍🙂
@nickname-ue5tv
@nickname-ue5tv Год назад
Большое спасибо. Было интересно послушать интервью. Вопросы очень интересные
@KOCHKIN404
@KOCHKIN404 Год назад
Андрюха я твой фанат !!!
@Sp1nGG
@Sp1nGG Год назад
Видео супер. Коротко, ясно, понятно. Ничего лишнего от слова совсем. Больше бы такого!
@osvab000
@osvab000 Год назад
Круто, очень просто, быстро и доступно. А то смотришь других часами и уже под конец забыл с чего все начиналось!