Для кого непонятен вывод на 10:53 Latex-code: Это почти логистическая регрессия, проведем ряд формул Исходный функционал с логарифмами $-\sum_{i=1}^l[y_i=-1]log\sigma(<w,x_i>) + [y_i=1]log(1 - \sigma(<w,x_i>)) =$ Подставим сигмоиду $-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-<w,x_i>)} + [y_i=1]log(1 - \frac{1}{1 + exp(-<w,x_i>)}) =$ Приведем дробь к общему знаменателю в $log(1 - \frac{1}{1 + exp(-<w,x_i>)})$ и проделаем несложные операции с дробями $-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-<w,x_i>)} + [y_i=1]log(\frac{1}{1 + exp(<w,x_i>)}) =$ Воспользуемся свойством логарифма $log(1/x) = -log(x)$ - пропадет минус перед суммой $\sum_{i=1}^l[y_i=-1]log{1 + exp(-<w,x_i>)} + [y_i=1]log({1 + exp(<w,x_i>)}) =$ Слогаемые отличаются только знаком, заметим, что знак перед скалярным произведеним противоположени со знаком индикатора, то есть мы можем просто убрать разделение, заменив знак обратным $y_i$ $\sum_{i=1}^l log(1 + exp(-y_i \times<w,x_i>))$
Хорошее видео. На последнем слайде опечатка: в столбце про мошенников в разделе "Таргет" дублируется текст из столбца "Антиспам". А должно быть: 0 - мошенническая операция, 1 - обычная операция.
Ребята, не слушайте его, он вас только запутает! 01:24 - это называется не НАБОР а МНОЖЕСТВО. "Множество пар" - ты математику то подучи чтоле... 03:38 - столюбцы ЧЕГО? Ты про что и где столбцы не говорил ещё? - Есть какое-то видео где про столбцы и заборчики рассказываешь - давай ссыль. 03:56 - что-то нигде в математике мне не говорили, что такое '"подход скелер" или "метод скелер", а я технический вуз закончил на отлично -- ты тоже не говорил пока. Ты с какой орбиты ведешь трансляцию, бро? 04:36 - так скелер это такой прибор (ну типа линейки). "инициализтировать скелер" это как? - Из коробки достать чтоле? Как это запоминать мне параметры? Параметры чего? Выборке чего? Train - а поезд тут причём? - Трава дорогая? 04:44 - ой там какой-то код програмный, ну конечно я должен догадаться какой, все же так умеют. Ну вангую что это Py. 06:19 - "Раскрыть значение этого функционала" - воспаде это на футболку печатать. Родной мой, тебя бросает то в математику, то в программирование, то в простые какие-то вещи, то в уродливые химеры из терминов которые твоя голова генерирует - А В ГОЛОВЕ У ТЕБЯ КАША! Я не говорю что материал ты НЕ знаешь, т.к. даже с такой кашей, ты можешь всё внутри себя как-то понимать, но матерь божья тебя огороди от необходимости что-то объяснять. Чтоб объяснить как сварить суп, надо понимать что такое кастрюля - без этого никак.
Не понятно как мы нашли веса в начале видео🤔что предсказывали то? если мы строим обычную регрессию, то нам ведь нужен какой-то таргет, для которого мы уравнение линейной регрессии строим.
Отмечу, что линейную регрессию называют линейной именно из-за линейной комбинации базисных функций - это не связано с самыми базисными функциями (они могут быть линейными или нет).
7:59 если мы двигаемся в сторону антиградиента, то почему в итоговой формуле для весов берём тот градиент, который был посчитан выше? Перефразирую - не нужно ли было убрать минус перед двойкой?
t.me/start_ds - Тут публикуются материалы для прокачки скиллов в DS и подготовки к собеседованиям. Пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
t.me/start_ds - канал, где мы публикуем материалы для прокачки скиллов в DS и подготовки к собеседованиям, пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
Спасибо за понятное объяснение и наглядные иллюстрации! Очень понравилась серия роликов про линейную регрессию. Хотелось бы увидеть серию роликов про классификацию в Вашем исполнении :)
нужно дать определение, что такое бегать из конторы в контору. В целом нашел следующее - Average tenure at Google has been reported at 1.1 years и even global tech giants often struggle with low employee tenure. Most have a median employee tenure of only one or two years.
@@ValeriiBabushkin та ситуация, в которой по моим ощущениям, не требуется давать определения из гугла). В целом спасибо за контент, интересно слушать и смотреть 👍🙂