Тёмный

#19. Введение в метод опорных векторов (SVM) | Машинное обучение 

selfedu
Подписаться 159 тыс.
Просмотров 19 тыс.
50% 1

Опубликовано:

 

5 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 39   
@ЯнМиняйло
@ЯнМиняйло 2 года назад
Большое спасибо за подготовленные материалы, под каждым видео не буду писать благодарности, но знайте, про себя каждый день благодарю вас за помощь в обучении) Манера подачи и плотность полезной информации одни из лучших на русскоязычном пространстве
@jasurbeknematov7083
@jasurbeknematov7083 8 месяцев назад
присоединяюсь
@IanaPolonskaia
@IanaPolonskaia Год назад
Вы святой человек! 😂 целый день искала хорошее объяснение svm но все недопонимала до конца как он выводится, спасибо что создали это видео!
@dubinin_s
@dubinin_s 2 года назад
Огромное спасибо за понятное и наглядное объяснение. Судя по формулам, то с какой стороны на решение проблемы не посмотри все сводится к выбору функции потерь и регуляризации.
@selfedu_rus
@selfedu_rus 2 года назад
Да, верно. Пока все разнообразие алгоритмов можно воспринимать именно так!
@Takumy_
@Takumy_ Год назад
Огромное спасибо! Прохожу курс лекций по ML от ШАД яндекса, вы отлично объяснили то, что я не понял у них.
@marines8725
@marines8725 Месяц назад
вы крутой, спасибо
@АняЧекалина-я1е
@АняЧекалина-я1е 8 месяцев назад
Супер! Даже я поняла, спасибо большое!
@YbisZX
@YbisZX Год назад
@selfedu В целом понятно, но есть вопросы: 5:10 - Почему направление вектора (xp-xm) будет совпадать с w? И далее ты про угол между ними говоришь. Как я понял, это задача стоит настроить w близко к этому. 6:50 - Разве ширина полосы безразмерна? Сам же пишешь, ширина это |xp-xm|*cos(a), проекция вектора dx на w. Размерность у нее - единицы x. Мы делим на |w| как раз чтобы оставить из скалярного произведения только ширину (в размерности признаков). 8:40 - Как подбираются граничные образы и альфа? На каждом шаге ищутся ближайшие к линии образы, замеряется дистанция d, тогда a=1/d? 14:25 - Как задаются кси_i и куда они исчезли из формулы? Если приравняли 0, то получили формулу для линейно разделимого случая? А иначе срезы не по 0, а по кси_i?
@selfedu_rus
@selfedu_rus Год назад
1. Да, совпадает, т.к. направление векторов идет в сторону класса с меткой +1. 2. Здесь да, мы избавляемся только от размера w, но не x, согласен, хотя потом, расстояния между этими векторами также нормируем, поэтому, в целом, не критично. 3. Скорее всего, внутрь sc-learn не заглядывал, как в нем это реализовано не скажу, но как вариант ваш подход вполне возможен. 4. Не совсем это понял, т.к. в видео четко об этом говорится. Мы рассматриваем минимальные значения кси, чтобы минимизировать первое неравенство, и отсюда получаем кусочно-линейную их зависимость от двух других параметров w и b. Все.
@YbisZX
@YbisZX Год назад
@@selfedu_rus 1. А, то есть направление векторов "совпадает" не в смысле точно, а в смысле - направлены в сторону того же класса. 4. Я просто понял будто кси_i изначально как-то задаются, а имеется в виду, что они допускаются как некие степени свободы, которые в итоге выражаются и минимизируются срезами (1-Mi)+
@selfedu_rus
@selfedu_rus Год назад
@@YbisZX 1. Да, в одну сторону (острый угол). 4. Да, кси - это оптимизируемые параметры
@Леха-ц3п
@Леха-ц3п Год назад
Харош мужик
@impellergimpeller5133
@impellergimpeller5133 2 года назад
👍👍👍👍👍
@dicloniusN35
@dicloniusN35 Год назад
доставляет интонация) будто автор задумал затроллить зрителя и радуется в предвкушении))
@levonabgaryan304
@levonabgaryan304 Год назад
А можем b, добавить в вектор омега(новая строка) а в X-ах добавить столбец единиц, ведь уравнение гиперплоскости не изменится (умножением двух матриц), и так минизировать длинну омеги?
@leonidandreyev8479
@leonidandreyev8479 Год назад
Не до конца понимаю. На 8:00 определяем Mi=yi*a(xi)=y(-b), хотя функция a была определена как знаковая до этого с областью определения {-1;+1}.
@selfedu_rus
@selfedu_rus Год назад
При вычислении отступа мы берем только скалярное произведение без знаковой функции.
@romanbykov5922
@romanbykov5922 2 года назад
Привет. Спасибо. У меня вопрос: видел, у вас канал на RuTube завёлся. А туда весь свой контент переносить планируете?
@selfedu_rus
@selfedu_rus 2 года назад
Думаю, нет. Гиблый сервис ) Залил все на VK.
@siarheibelko8457
@siarheibelko8457 2 года назад
@@selfedu_rus И еще вопрос. Будете ли продолжать выкладывать видео на RU-vid?
@selfedu_rus
@selfedu_rus 2 года назад
думаю, да
@UncleMrFunny
@UncleMrFunny 2 года назад
Здравствуйте!! Хотелось бы узнать будете ли вы в proproprogs выкладывать объяснение как с нейросетью(ютуб ролик + документ)?
@selfedu_rus
@selfedu_rus 2 года назад
да, буду после формирования всего курса
@Максим-н2б3с
@Максим-н2б3с 2 года назад
Не очень понятна равносильность при замене 2 нормы в знаменателе на её квадрат, ведь по сути после этого это максимизируемое выражение уже не проекция на единичный вектор
@selfedu_rus
@selfedu_rus 2 года назад
да, это разные метрики, но главное, что мы нормируем вектор w, а единицы потом получаем выбором параметра alfa
@girrra1233
@girrra1233 Год назад
@@selfedu_rus Можете объяснить как работает нормирование отступа? Классы же на фиксированном расстоянии друг от друга, как мы можем умножением на константу сделать отступ единичным? Мы разве сдвигаем классы к прямой?
@selfedu_rus
@selfedu_rus Год назад
@@girrra1233 нет, у нас есть два ближайших к разделяющей линии класса, эта линия точно по центру, значит, расстояния до них одинаковы, пусть равны d. Число d не равно 1, нормируем: a = M/d.
@girrra1233
@girrra1233 Год назад
@@selfedu_rus Верно ли я понял, что в реальности с расстоянием ничего не происходит, мы просто нормируем весовой вектор так, чтобы чисто вычислительно получать единичку? Просто для математического удобства?
@selfedu_rus
@selfedu_rus Год назад
@@girrra1233 совершенно верно! вся разница в чем мерить: в попугаях или удавах ))
@amorceepar9220
@amorceepar9220 11 месяцев назад
В других материалах везде вижу L=2/||w||, без квадрата. Всё же непонятно, почему у вас двойная как нормировка?
@selfedu_rus
@selfedu_rus 11 месяцев назад
мы далее все равно расстояние до граничных элементов нормируем к 1, поэтому 1 и 1^2 одно и то же
@СергейКатин-щ1ь
На 9-40 в формуле не пропущена w около x(-)?
@lera6801
@lera6801 2 года назад
почему мы используем индекс Т у ориентации гиперплоскости, это когда связано с транспонированием?
@selfedu_rus
@selfedu_rus 2 года назад
да, здесь T - это знак транспонирования
@lera6801
@lera6801 2 года назад
@@selfedu_rus для чего здесь нужен знак транспонирования, это разве не просто прямая?
@СарматПересветов
@СарматПересветов 6 месяцев назад
Вопрос, а почему нельзя для определения ширины полосы просто сделать так L = 2*|W| ??? так как я понимаю вектор W идет от разделяющей гиперплоскости (центра полосы) перпендикулярно, до границы разделяюшей полосы. и следовательно, мы просто умножаем длину вектора W на 2 (хотя можно даже и не умножать на 2, так как нам не важно по сути само значение, а важно лишь найти наибольшую полосу). P.S. проверял на случайных данных на чертеже и все в точности сходится, как при использовании вашей формулы, так и той что я предложил, только вычислений меньше.
@selfedu_rus
@selfedu_rus 6 месяцев назад
тогда сама длина |W| не будет иметь значения, т.е. коэффициенты можно увеличивать или уменьшать до бесконечности?
@СарматПересветов
@СарматПересветов 6 месяцев назад
Я понял в чем дело, спасибо!
Далее
ВЫЖИЛ В ДРЕВНЕМ ЕГИПТЕ!
13:09
Просмотров 191 тыс.
LOLLIPOP-SCHUTZ-GADGET 🍭 DAS BRAUCHST DU!
00:28
Просмотров 11 млн
16. Learning: Support Vector Machines
49:34
Просмотров 2 млн
Метод опорных векторов
10:21
Просмотров 4,4 тыс.
Support Vector Machines: All you need to know!
14:58
Просмотров 148 тыс.