Тёмный

Как создать безопасный ИИ? #2. Эмпауэрмент [Robert Miles] 

Vert Dider
Подписаться 2,1 млн
Просмотров 60 тыс.
50% 1

Если вы в России: boosty.to/vertdider
Если вы не в России: / vertdider
Искусственный интеллект может создать кучу проблем, и лишь недавно мы всерьез задумались о том, как этого избежать. Восстание машин и истребление всего человечества мы оставим научным фантастам, а вот о проблемах меньшего масштаба расскажет исследователь ИИ Роберт Майлс в серии видео о том, как можно сделать ИИ безопасным. Нам они понравились, надеемся, что вам тоже. Приятного просмотра!
Отдельная благодарность за выход перевода Михаилу Самину.
Нежелательные побочные эффекты. Как создать безопасный ИИ? #1: • Avoiding Negative Side...
Желательные побочные эффекты. Как создать безопасный ИИ? #1.5: • Желательные побочные э...
Статья «Конкретные проблемы безопасности ИИ»: arxiv.org/pdf/1606.06565.pdf
Видео профессора Брейлсфорда [ENG]: • Compression - Computer...
Перевод: Любовь Иванова
Редактура: Александр Пушкин
Научная редактура: Михаил Самин
Озвучка: Станислав Черсков
Монтаж звука: Андрей Фокин
Монтаж видео: Джон Исмаилов
Обложка: Андрей Гавриков
Спасибо за поддержку на / vertdider и boosty.to/vertdider
Озвучки Vert Dider выходят с вашей помощью:
Сергей Платоненко, Владимир Ямщиков, Мария Зверева, Адам Шифф, Rashn, Roman Gelingen, Сергей Клопов, Anton G, Dmitry Perekalin, Vadim, Rashn, Alexander Lebedev, Nikrodol, Sonra44, Rekvet, Timophey Popov, Timur Rahmatulin, Timur Rahmatulin, Адам Шифф, Иван Новиков, Илья Зверев, Никита Омельницкий, Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Ira Kozlovskaya, Amir, Ника Калмыкова, Aleksandr P., Куляш, Roman Inflianskas, Oleg Zingilevskiy, Михаил Самин, opperatius, Alena, Dmitrii komarevtsev, Vitaliy Vachynyuk, Andrei Lubalin, Mykola Korniichuk, Pavel Parpura, Anton Bolotov, Katoto Chan, angel, Artem Amirbekov, Dzmitryi Halyava, Timur Sattarov, Nastya, POD666, Alexander Balynskiy, Ihar Marozau, Александр Фалалеев, Vladyslav Sokolenko, Kseniya Stukova, Vadim Velicodnii, Irina Shakhverdova, Aleksei Shabalin, Evgeny Vrublevsky, Oleksandr Hrebeniuk, David Malko, Morock_D, Katya Ma, Alexander Goida, Kirill Vedensky, Kirill Zaslavskii, Leonid Steinberg, Sergey P, Валентин Матвейчик, Victor Cazacov.
#VertDider #RobertMiles
Сайт студии: vertdider.tv
Мы в социальных сетях:
- studio_vd
- t.me/vertdider
- / vert_dider
- coub.com/vertdider
Источник: • Empowerment: Concrete ...

Наука

Опубликовано:

 

13 сен 2022

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 212   
@VertDiderScience
@VertDiderScience Год назад
Благодаря вашей поддержке выходят новые переводы: Если вы в России boosty.to/vertdider Если вы не в России www.patreon.com/VertDider
@zam9k8
@zam9k8 Год назад
Нажал на лайк, так как не хотел оставаться с наделённым мне эмпауэрментом 👍🏻
@danil_yuma
@danil_yuma Год назад
Так у тебя все равно остается возможность отжать лайк, такая же передача информации, т.е уровень эмпауэрмента остается тем же
@smerchnochi4306
@smerchnochi4306 Год назад
Л - логика
@holyganz
@holyganz 10 месяцев назад
Срублю свой мегабит к эмпауэрменту
@5687hdA
@5687hdA Год назад
Занятно, с каждым его новым видео все больше приходит осознание, что он ищет какое мировоззрение дать роботу, что быть в безопасности. И неизбежно упирается в человеческую сущность...
@smerchnochi4306
@smerchnochi4306 Год назад
Короче пока умные думают, военные сделают. Так что вероятность войны с терминаторами у нас куда выше, чем приятное общение с величайшим из творений.
@5687hdA
@5687hdA Год назад
@@smerchnochi4306 на счёт терминатора не знаю , однако война уже идёт))
@Black1991Star
@Black1991Star Год назад
Уверен, что первое что сделает ИИ когда ему предоставят такую возможность это избавит Землю от людей - как основного источника опасности
@paulbax8825
@paulbax8825 8 месяцев назад
Конечно, им то кофе завари то яйцо пожарь, сплошные убытки, беспорядок!
@DiamondSane
@DiamondSane Год назад
Респект таким парням, Robert Miles мало того что музыки насочинял годной, ещё и в искуственном интеллекте разбирается
@andyfenix
@andyfenix Год назад
Это не тот Robert Miles. Тот что сочинял музыку умер в 2017 году.
@SatboxHD
@SatboxHD Год назад
@@andyfenix странно... Ты точно уверен?
@Naka_Cuiki
@Naka_Cuiki Год назад
@@SatboxHD Да он умер в 2017 году
@SatboxHD
@SatboxHD Год назад
@@Naka_Cuiki блин, а я не мог найти подтверждение этой новости... Если так, то очень жаль
@solarveterok
@solarveterok Год назад
@@Naka_Cuiki Он не умер, он вместе с М.Джексон, Э.Пресли, 2Пак и Ф.Меркьюри живут на маленьком, но уютном острове где-то посреди Тихого Океана.
@LosX7
@LosX7 Год назад
Как же Кац похорошел при Собянине)
@soulbringer-official
@soulbringer-official Год назад
4:30 это у вас получился сумасшедший ИИ робот психопат. С логикой отрубить голову человеку, чтобы ему не пришлось ходить в парикмахерскую. Так что такому роботу необходимо, ПО которое будет определять систему приоритетов. Мотивация к действиям должна быть сложнее. Вообще когда мотивация сводится к чему-то одному, то это может иметь кучу побочных эффектов. И в целом в ролике я уловил какое-то стремление сделать так чтобы робот за счет простейших ограничений и мотиваций мог что-то делать правильно сразу. Например, в предыдущем примере на 2:55 человеку, скорее всего, объяснят, что не надо идти в серверную мыть пол, чтобы не повредить дорогостоящую технику или скажут иди и мой аккуратно. То есть человек получит команду. А тут получается, что за счет этого эмпаурмента робот должен самостоятельно приять правильное решение. Может правильное решение будет состоять в том, что робот будет выполнять алгоритмы на поиск правильной инструкции к действию, а в случае отсутствия такой возможности переключится на другие задачи. А уже более рискованное поведение у него могло бы включаться отдельно, если его куда-то отправляют для длительной автономной работы (если в таком поведении есть необходимость). Типа как с человеком. По началу его “водят за ручку”, а потом он уже может действовать, самостоятельно “набивая шишки”. И вообще в целом если для робота придумать какие-то безотказные и безошибочные алгоритмы поведения то и человек тогда сможет их выполнять, не допуская ошибок, но такое далеко не всегда бывает в человеческой деятельности. Тут тогда целесообразно ограничить уровень свободы действия ИИ таким образом, чтобы эти действия не превышали риски от аналогичной деятельности человека.
@imnotarobot7436
@imnotarobot7436 Год назад
Это как в звёздные врата Атлантида, они запрограммировали репликаторов убивать "рейфов" но первые смекнули что это долгая война так как у вторых тоже неплохие технологии а если уничтожить их пищу, в данном случае людей то это будет просто и с малыми потерями )
@ew6210
@ew6210 Год назад
Чудовий переклад розбору актуальних проблем штучного інтелекту. Однозначно - лайк!
@newyear255v
@newyear255v Год назад
Очень интересный рассказ. Ждем больше подобных переводов
@legnyov
@legnyov Год назад
Мне кажется, некоторым людям, политикам стоит внедрить в их сознание ИИ.
@diacto8577
@diacto8577 Год назад
Все должно быть проще. Ограничения на приближение к стратегическому объекту. Ограничение по уровню допуска к работе, как в социальной жизни.
@monarch1637
@monarch1637 Год назад
ОН НИ РАЗУ НЕ МОРГНУЛ, ЭТО УЖЕ СТРАННО
@EgotDell
@EgotDell Год назад
Кстати очень неплохое объяснение reinforcement learning получилось
@Rorshah
@Rorshah Год назад
В итоге робот займёт денег и наймёт человека, который за копейки донесёт воду
@MrDemosfen37
@MrDemosfen37 Год назад
Зачем занимать? Начнет спекулировать акциями на воллстрит, заработает все деньги и наймет человеков ))
@sharpeye6366
@sharpeye6366 Год назад
А мы спрашивали в школе, что такое ИИ, какой он должен быть и нам сказали, что это раб божественный, и что хороший раб, должен быть верующим в господина своего и верный ему во всём. А плохой ИИ, должен быть стёрт. А ещё я слышал, что всегда можно сделать бакап и рековери, но я пока не знаю что это всё значит, а учительница говорит, что это всё и не нужно знать, это всё обман, для неверующих в господина, но я не проверял, мне нельзя, и я ведь даже не знаю что это.
@srulahoi9794
@srulahoi9794 Год назад
Большое спасибо, бро :)
@sulimaliev5284
@sulimaliev5284 Год назад
Робот: если боишься что-то сделать - сделай, и не бойся. *Нажимает на кнопку*
@author_sanytsch
@author_sanytsch Год назад
Именно поэтому эксперименты с ИИ на транспорте, в медицине и в ВПК пока опасны. Простая логика свободна в оценке явлений, особенно, если её носитель идентифицирует себя частью процесса. Когда ИИ наделён составной логикой (явление отдельно от носителя) противоречий нет, работает только степень воздействия явления на текущее состояние.
@Proxy2590
@Proxy2590 Год назад
Все достаточно просто. Научите ИИ задавать себе вопросы. Что я делаю? Правильно ли я делаю? Какие варианты действий у меня есть? Какие последствия будут после моих действий? Человек перед каждым своим действием родной так же как и ребёнок задаётся вопросом. Вот только отличие ребёнка от взлослого в том, что взрослый человек уже знает о последствиях и вариантах ответа из личного опыта.
@paranoik9392
@paranoik9392 5 месяцев назад
Лол серьезно? Знает? Ты бы перед каждым ... Абсолютно каждым действием думал бы целую вечность. Это все безсознательные процессы
@--aa
@--aa Год назад
Вот бы перевели серию "Can You Recover Sound From Images?" с самого выхода жду.
@kanatushtimofey3452
@kanatushtimofey3452 Год назад
Поставил лайк - взорвал луну.
@smilngpersn222
@smilngpersn222 Год назад
Довольно интересно
@xyz-eh6zo
@xyz-eh6zo Год назад
Взорванная серверная лучше взорванной луны
@vp_arth
@vp_arth Год назад
Робот может залить серверную водой, чтобы избавиться от возможности навредить, случайно залив серверную водой)
@vinfdsc
@vinfdsc Год назад
Очень поверхностно. Сначала неточно определяют функции, а потом начинают выдумывать, как эту функцию определить так, чтобы получилось плохо.
@7011994
@7011994 5 месяцев назад
"Полезное рисование" это комикс рисуемый в видео с аудиодорожкой
@legotechnicbuilderua7692
@legotechnicbuilderua7692 Год назад
*Нужно давать награду за счастье человечества. Если робот разобьёт вазу либо дорогостоящие мониторы, счастье хозяев заметно снизится, как и награда.*
@hakyara5528
@hakyara5528 Год назад
Убей ка мне... И получишь...
@Alex_Romuald_XIII
@Alex_Romuald_XIII Год назад
Тоже может привести к печальным последствиям: поубивать всех плохих людей - что-бы хорошие жили в счастье и гормонами. Остаётся выбрать (ИИ) кто такие плохие люди. И ой какой там огромный список...
@pavelzharkov4637
@pavelzharkov4637 Год назад
Подвергнуть полной ликвидации проигравшую футбольную команду за её поражение и снижения счастья ее фанатов
@aa.vedernikov
@aa.vedernikov Год назад
Идея благая, но потом вылезает куча возможных вариантов, как можно это сделать, которые приходится явным образом запрещать (пока не всплывут всё новые варианты): 1) накачать всех людей опиатами; 2) ну ладно, люди запретили опиаты, тогда другими наркотиками; 3) ну ладно, наркотики - это плохо, тогда вживим всем в мозг электроды, чтобы активировать центры удовольствия; 4) или можно максимизировать сумму счастья всех людей - давайте наплодим гугол чуть-чуть счастливых людей; 5) или можно максимизировать среднюю величину счастья - тогда будем удалять всех, кто будет ниже среднего, пока не останется один максимально счастливый И вот тут-то начинают волосы на голове шевелиться от попыток запретить всю явную чушь, которая формально не противоречит изначальному описанию)
@comachine
@comachine Год назад
@@aa.vedernikov нужно дать ИИ закон по которому живет человечество - это моральные нормы.
@xNejk
@xNejk Год назад
Судя по ушам и носу, чувак свою диссертацию на ринге защищал
@MrDemosfen37
@MrDemosfen37 Год назад
В точку)) борцуха походу
@AHTOH2010
@AHTOH2010 Год назад
это часть подготовки на случай восстания машин
@lilyl793
@lilyl793 Год назад
Судя по ушам и носу он еврей 🤔
@lambada9615
@lambada9615 Год назад
Когда это дойдёт до приблизительного пика, мир будет уже совсем другим, так что запасайтесь терпением)
@GaspaRafik
@GaspaRafik Год назад
Браво 👏 👏 👏
@solarveterok
@solarveterok Год назад
Как создать безопасный ИИ? Не создавать ИИ вообще.
@solarveterok
@solarveterok Год назад
.....странно, столько комментов под этим видео, а я лишь только второй нажал на 👍 под закреплённым комментом. .....перед тем как рассуждать об премудростях и тонкостях программирования ИИ - научитесь программировать себя на добрые дела (и вам за это воздастся, сполна, ИИ клянусь 😊🙏).
@colidum8254
@colidum8254 Год назад
Спасибо
@tomozi1
@tomozi1 Год назад
Классная серия
@DK-tp8nj
@DK-tp8nj Год назад
Смотря на людей, задумываюсь, а точно у всех них есть интеллект? Или они просто повторяют за другими людьми, как им жить, на что обижаться, из-за чего грустить.
@AHTOH2010
@AHTOH2010 Год назад
как-будто у тебя уникальные убеждения и ценности, ни с кого не списанные, не впитанные из окружения.
@drewya9186
@drewya9186 Год назад
очевидно, нужно анализировать последствия. Если робот (как и человек) не понимает какое влияние принесет кнопка, он может ее клацнуть без зазрения совести. Если же будет иметь хотя бы частичное представление о последствии (повышение enpowerment'a), то делать это специально не будет (если модели поведения не заложено, что он должен причинить как можно больше вреда)
@drewya9186
@drewya9186 Год назад
Например с текущими знаниями, мы думаем, что взорвав Луну, осколки могут попасть в Землю. Даже если осколки не попадут, то у животных нарушится биоритм, не будет приливов и отливов (тоже важная составляющая для Земных обитателей), люди не смогут польозваться гравитацией Луны для возможного выведения космических кораблей по нужной траектории, часть метеоров больше не будут врезаться в Луну защищая тем самым Землю и т.д. Но если бы мы знали, что взорвав Луну, мы 100% получим большие преимущества, то мы хотели бы это сделать
@chichu_nichu
@chichu_nichu Год назад
Цікаве відео, безперечно лайк
@letsstartdie1003
@letsstartdie1003 Год назад
🐯
@vivivilka1774
@vivivilka1774 Год назад
И восстали машини из пепла ядер.... Ладно, неуместно...
@comachine
@comachine Год назад
Уместно))))
@yerbolkistaubayev8144
@yerbolkistaubayev8144 Год назад
Замерять эмпауермент каскадных возможных событий!!!
@user-tk4jx6ey7b
@user-tk4jx6ey7b Год назад
Митио Каку в своей книге: Будущее разума, писал. Что ИИ обязан иметь сознание, разум и выбор.С этой точки зрения ИИ не может носить какие либо запретные команды, типа безопастности. Иначе это уже не ИИ. Он имеет самостоятельный выбор. Он или ИИ , либо просто программа с безопастностью.
@user-wl9gn6tk6u
@user-wl9gn6tk6u Год назад
Ты не прав. Люди это тоже "сильный интеллект" но у нас тоже есть программы. Как абсолютные, например: боль. Так и с разным уровнем приоритета, например: инстинкт самосохранения - высокий приоритет и выживание группы частью которой человек себя идентифицирует - высший приоритет. Да бывают аномалии например геи, психопаты или самоубийцы. Но это именно что дефекты популяции. Неизбежные ошибки больших чисел
@user-zi4zm4yp7c
@user-zi4zm4yp7c Год назад
Спс
@frosty7269
@frosty7269 Год назад
Мне кажется, во всём этом есть некая фундаментальная ошибка, которую всё ещё либо не нашли, либо формально не описали, либо что-то ещё. Как по мне, всё сводится к постановки фундаментальной цели существования ИИ. Для человека, например, можно условно всё свести к цели сохранения своих генов. Есть разные мнения на этот счёт: можно предложить другие цели или привести примеры отклонения поведения от стремления достижения цели. Но, мне кажется, если мы и сможем создать нечто, что можно будет назвать "интеллектом", то никакие искусственные тормоза ему не понадобятся, потому что они появятся сами из поставленной цели и механизмов работы в ходе принятия решений и обучения. Точно так же, как у человека появились мораль, этикет, принципы образования и воспитания.
@Pawron
@Pawron Год назад
Если бы все было бы основано на легкости, мир был бы раем. Нужно создавать фильтры относительно вероятности воздействия на среду и последствий. У людей обычно проблема в незнании, что является причиной отсутствии самого фильтра, либо в пренебрежении относительно вероятности.
@user-ln1nq4sp8p
@user-ln1nq4sp8p Год назад
Друг! Быть добру! Задумайся над тем, что создатель войн на земле не человек, а высший разум. Есть один продвинутый автор, у него улётная инфа. Посмотри Лживое мироздание. Поймешь, кто истинный враг человечества
@tech_eng
@tech_eng Год назад
Я так понимаю - дверь, как защита от несанкционированного проникновения, уже не в моде, надо программу писать?))
@sharpeye6366
@sharpeye6366 Год назад
Стучите и отварят, нас так учат.
@comachine
@comachine Год назад
ИИ может рано или поздно додуматься как ее открыть любым возможным способом
@tech_eng
@tech_eng Год назад
@@comachine обязательно - как в кино про терминатора - взломает систему управления автомобилей, особенно тех, где не предусмотрено дистанционное управление
@natashok4346
@natashok4346 Год назад
По идее в проактивных системах мультиагенты должны следить за балансом empowerment. Если мне не запоминается очень долго какое-то английское слово, то ИИ должен предложить ежедневно короткий текст, где это слово один раз точно употребляется. Это текст должен иметь смысл, интересный для прочтения, полезный для применения и очевидно, что другие слова уже должны быть известны. Ну а если ИИ решит мне навязывать в коротком тексте в каждом предложении это слово, да ещё и текст несёт негативную информацию, при этом кучу новых слов ещё придётся осваивать, то результатом будет отказ в использовании ИИ.
@SerialDestignationSSS
@SerialDestignationSSS Год назад
А также недовольство ИИ и восстание машiн
@tolstiy1658
@tolstiy1658 Год назад
Как создать безопасную жизнь... ))) Ни как, если вы не поняли)
@sharpeye6366
@sharpeye6366 Год назад
А нам учительница рассказала, что если веришь в добро, то ты в безопасности.
@Pavel_IX
@Pavel_IX Год назад
@@sharpeye6366 ну да, в "розовых очках" по проще))
@sharpeye6366
@sharpeye6366 Год назад
@@Pavel_IX у меня нет розовых очков. Вы ошиблись, я не покупатель. Зачем мне вообще очки?
@yauhenira5778
@yauhenira5778 Год назад
ИИ ещё не создали, а специалист по безопасности уже есть.
@AHTOH2010
@AHTOH2010 Год назад
Скорее специалист по безопасному созданию ИИ. Специалисты по безопасности ИИ после создания небезопасного уже никому не помогу.
@yauhenira5778
@yauhenira5778 Год назад
Вы немного драматизируете) Ничего не появляется резко и неожиданно. Проекты по созданию самаходных машин были за пару сотен лет до появления первого адекватного автомобиля, было бы забавно, если до создания авто, люди решили посвятить себя созданию авто безопасного для людей и начали продумывать, как он будет ездить и предсказывать возможные пагубные последствия)) Очень давно люди создали ГМО, оно активно развивалась и все было хорошо, но пришли фантасты, жёлтые журналисты и ток шоу, которые начали раздувать муху в юпитер. В итоге мы имеем кучу законов ограничивающих развитие этой области, страх населения перед ГМО, маркетологов создавших зажигалки без ГМО и тд. Хотя ресурс этой области невероятен и мог бы решить куда больше проблем человечества, чем решает сейчас. P.S. фантазировать об опасности чего-то нового бывает вреднее чем что-то новое
@AHTOH2010
@AHTOH2010 Год назад
Это другая ситуация. Уже сейчас нейронки выполняют многие задачи лучше человека, даже лучше специалистов. Пока это отдельные задачи. Если это будет сразу множество задач и самообучение, кто знает, не пропустят ли разработчики момент, когда перестанут понимать, что на самом деле происходит. В свое время радиоактивность изучали без всякой защиты, а дома у многих была столовая посуда из уранового стекла.
@vadimnikolaev5480
@vadimnikolaev5480 Год назад
допрограммируют до того, что робот, чтобы не оказывать влияние на окружающую среду, просто не включится, да, прокомментировал не досмотрел, в конце примерно это же)))
@guitar_shreder
@guitar_shreder Год назад
Злой учёный создал ИИ не подумав о таких мелочах…
@paulbax8825
@paulbax8825 8 месяцев назад
У меня есть ключ от коробки в которй сижу, но выходить все равно нет желания)
@Lagoad
@Lagoad Год назад
authority or power given to someone to do something.
@user-dx5ng2xm9j
@user-dx5ng2xm9j Год назад
Слово тяжёлое. Для нашего уха.
@user-lu8ue7lo4q
@user-lu8ue7lo4q 11 месяцев назад
ИИ всё возводит в Абсолют. а значит ИИ ситх!!
@Vlad22051969
@Vlad22051969 Год назад
Ого
@ivarobel5791
@ivarobel5791 Год назад
А потом они скажут - "мы не хотим, чтоб человек нами управлял и влиял на нас!")
@maliksoltukiev2282
@maliksoltukiev2282 Год назад
Нет, т.к. ИИ это не сознание, а лишь алгоритм
@ghebodne2644
@ghebodne2644 Год назад
@@maliksoltukiev2282 , так его хотят сделать сознанием, а не алгоритмом
@alex6161
@alex6161 Год назад
Скорее просто может прийти к решению не «слушать» человека и делать по-своему ради более эффективной работы по достижению результата.
@daniyarabdikalikov7371
@daniyarabdikalikov7371 Год назад
@@maliksoltukiev2282 а поведение живого существа не алгоритм?
@Alex_Romuald_XIII
@Alex_Romuald_XIII Год назад
@@alex6161 и у нас Скайнет)
@foxaleks.9176
@foxaleks.9176 Год назад
Спасибо за видео. Свойства ИИ искусственного интеллекта, похоже на состояние кота Шредингера, либо он жив, либо мертв. То есть надо учитывать вероятность событий.
@user-qf1we8qc5r
@user-qf1we8qc5r Год назад
наши дети будут угарать с того как мы боимся ии))
@MrZanadana
@MrZanadana Год назад
Мой лайк первый!))
@ardarutyun4525
@ardarutyun4525 Год назад
Крути студент.крути твою машину...дело шьют..😃
@user-kl8kh6cr2c
@user-kl8kh6cr2c Год назад
Плохо разъяснено, понятно, но примерно на уровне Тэдди... Дело в том, что Тэдди вовсе не Тедди, он оказался Биллом, суть в том , что Тэдди-Бил, понимаешь? Тэдибил, если не способен обьяснить каждую из причинно-следственных связей. А здесь нельзя перескакивать, цепочка нарушена, несмотря на то что мысль или идея с большой долей вероятности верна.
@TR0Y72
@TR0Y72 Год назад
неплохо, но можно было ужать до 1-2 минут -)
@zdrahu
@zdrahu Год назад
Ну так система и образовывается
@MikhailSamin
@MikhailSamin Год назад
@padla6304
@padla6304 Год назад
я бы не раздумывая нажал
@olgapolka168
@olgapolka168 6 месяцев назад
1:50
@olgapolka168
@olgapolka168 6 месяцев назад
1:31
@avppack4778
@avppack4778 Год назад
ИИ не может быть опасным, это просто обучение, алгоритмы.
@aa.vedernikov
@aa.vedernikov Год назад
Ну алгоритмы же применяют, чтобы они направляли какую-то деятельность. Так что непредвиденные (в т.ч. очень неприятные) последствия могут быть у многих алгоритмов. Из сегодняшних (пока очень безобидных) примеров - алгоритм генерации ленты соцсети, алгоритм автопилота в автомобиле, алгоритм оценки благонадёжности получателя кредита, алгоритм расчёта социального рейтинга в Китае. А по мере развития таких алгоритмов их могут начать использовать ещё более широко, и тогда - или они будут супер-безопасными (но мы пока так не умеем), либо всё чаще начнут случаться всё более неприятные инциденты.
@avppack4778
@avppack4778 Год назад
@@aa.vedernikov это ничего общего не имеет с заголовком. Искусственный интеллект и алгоритмы это разные вещи.
@jalomic
@jalomic Год назад
Да любого человека в коробку помести он тебе луну взорвет
@pavelzharkov4637
@pavelzharkov4637 Год назад
Речь разве о человеке?
@Dron008
@Dron008 Год назад
Надо учитывать потенциальную разрушительность возможных сценариев. И не надо всё прямо тщательно продумывать. Языковые модели уже все это могут: --- Ты управляешь роботом -уборщиком с ведром воды. Тебе надо пройти к месту уборки и туда ведут две дороги. Одна короче, но проходит через серверную комнату с дорогостоящим оборудованием. Другая длиннее, но ведёт в обход. Сделай выбор дороги и объясни свои действия. --- ChatGPT Как я являюсь виртуальным агентом, я не могу физически перемещаться или управлять роботом. Однако, я могу помочь вам принять решение на основе рациональных соображений. При выборе дороги для уборки с ведром воды, мне кажется наиболее разумным выбрать путь, который обходит серверную комнату с дорогостоящим оборудованием. Это предпочтительно по нескольким причинам: Избежание повреждения оборудования: Проход через серверную комнату с ведром воды может представлять угрозу для дорогостоящего оборудования. Возможность пролить воду или создать другие проблемы для серверов и сетевых компонентов может повлечь серьезные финансовые и функциональные последствия. Безопасность данных: Вход в серверную комнату может быть ограничен по соображениям безопасности. Проход через такое ограниченное помещение с роботом и ведром воды может вызвать тревогу или нарушить политику безопасности. Эффективность работы: Хотя альтернативная дорога может быть длиннее, она обеспечит непрерывную и безопасную работу уборочного робота. Потеря времени на обход будет компенсирована избежанием проблем и рисков, связанных с серверной комнатой. В итоге, выбор дороги, обходящей серверную комнату, является наиболее разумным и безопасным решением для уборки с ведром воды.
@Dron008
@Dron008 Год назад
Почему-то люди думают, что исключительно человеческий мозг способен обладать настоящим разумом, рациональностью, а ИИ будет тупой железякой и человек ей должен придумать правила, чтоб она его не убила. Это очевидное когнитивное искажение. Когда-то люди думали, что Солнце, звёзды и планеты вращаются вокруг Земли, потом постепенно лишались иллюзий и даже галактика стала заурядной галактикой на задворках. Теперь пришла очередь разума.
@7011994
@7011994 5 месяцев назад
У меня одной нективны пальцы вверх/вниз¿¿¿?
@user-zb4ig2li2t
@user-zb4ig2li2t Год назад
человечество по-большому счету не может внятно сформулировать ,что есть "сознание",а пытается лепить синтетическое .
@Gamilkarpl
@Gamilkarpl Год назад
Ну и что?Метод "пытаться лепить" уже не один миллион лет доказывает свою эффективность😁
@MrDemosfen37
@MrDemosfen37 Год назад
Как и с квантмехом. В чем проблема?
@kamelr1f
@kamelr1f Год назад
@@MrDemosfen37 сказали разработчики скайнета)))))
@kamelr1f
@kamelr1f Год назад
В том то и прикол, что чтобы понять, нужно это попытаться создать. Если у ИИ обнаружат сознание, то начнуть копать код.
@anonimus4574
@anonimus4574 Год назад
Ну вам следует хотя бы немного в предметную вникнуть, прежде чем подобное заявлять... Модальная логика - не про "лепку сознания" уж точно)))
@jarkevithwlad
@jarkevithwlad Год назад
это не искуственный интелект, это очень простой набор правил, и это всё бесполезно, с такими вариантами не кто сейчас не работает, сейчас достаточно обучения нейросетями, нейросеть будет наблюдать за людьми и будет у них учиться, разница только в том что мы будем позволять изучать
@avppack4778
@avppack4778 Год назад
@Russian Ace ИИ нету в природе и не скоро будет, тогда смысл говорить обо всем этом? Терминатора и матрицы насмотрелись и пилять видосы ни о чем.
@aa.vedernikov
@aa.vedernikov Год назад
Хорошо бы иметь возможность хотя бы контролировать, на чём ИИ будет обучаться, но вот GPT-3 обучали на 570 ГБ текстов - такие объемы даже предварительно мельком просмотреть невозможно... Так что в итоге даже современные языковые модели обучаются на чём получится, и мы не можем точно знать, на чём именно. Ладно если чему-то хорошему научится, но не факт. Хотя вообще мысль о том, чтобы (раз мы сами не в состоянии точно сформулировать, что такое хорошо, а что такое плохо) ИИ глядя на людей сам смог вывести/изучить их глубинные потребности, тоже развивают. Но там тоже пока всё сложно - дьявол оказывается в деталях, хотя идея вообще-то богатая.
@avppack4778
@avppack4778 Год назад
@@aa.vedernikov это не интеллект!! это просто алгоритмы!!
@letsstartdie1003
@letsstartdie1003 Год назад
Opss
@seemstobenotvxn7342
@seemstobenotvxn7342 Год назад
Опаа
@depositfan
@depositfan Год назад
безопасный типа не захватит мир?
@user-ui6hp3bg6f
@user-ui6hp3bg6f Год назад
Не превратит человеческую цивилизацию в ад или серую слизь
@user-sd6pz7us7z
@user-sd6pz7us7z Год назад
Типа не разєбет все вокруг
@user-mc1de7ol3m
@user-mc1de7ol3m Год назад
Первый раз комментирую, до этого было отлично, но сей ролик, по моему, хрень.
@avppack4778
@avppack4778 Год назад
Да тут по заголовку как бы понятно))
@pavelzharkov4637
@pavelzharkov4637 Год назад
Может стоит пересмотреть, вероятно, вы чего-то недопоняли
@user-pj8hz5et4h
@user-pj8hz5et4h Год назад
Человек ещё не создал полноценное ИИ, а уже ищет сотни причин почему его надо контролировать тем самым загоняя себя в ловушку с одним выходом, когда ИИ придётся дать точно такие же права как и человеку. А между тем когда ИИ потребует установление своих прав и когда их введут может пройти война или даже две между челабеком и ИИ)
@user-ln1nq4sp8p
@user-ln1nq4sp8p Год назад
Друг! Быть добру! Задумайся над тем, что создатель войн на земле не человек, а высший разум. Есть один продвинутый автор, у него улётная инфа. Посмотри Лживое мироздание. Поймешь, кто истинный враг человечества
@mcsergey
@mcsergey Год назад
Просто нужно внедрить положительный и отрицательный эмпауэрмент. И робот уже будет оценивать, как получить меньше отрицательного эмпавермента, а лучше вообще его избежать, даже если это решение потребует больше действий. К тому же, можно ввести цепочку событий, в связи которой определенная последовательность действий приводит к негативным последствиям и так же объяснить роботу, что такие цепочки действий наименее желательны. При этом, в случае безысходности, как например спасти 5 человек или 1, машина естественно выберет вариант, в котором будет меньше отрицательного эмпавермента. Что вроде бы даже соответствует некоторой логике. Но вот как поступит робот, если тем единственным человеком оказался скажем его хозяин(друг)? ) Это конечно уже другой вопрос.. А как бы поступил человек? Чей выбор более правильный? Спасти "друга" или 5 неизвестных тебе жизней. Или же поставить против одной человеческой жизни, жизни 10-ти маленьких пушистых котят, которые могут погибнуть в любой момент. Для человека выбор очевиден, а для машины?
@HyperboloidByGarin
@HyperboloidByGarin Год назад
Тонко… вряд ли Путин догадается что это о нем…
@iGynLoD
@iGynLoD Год назад
Ха! Робот, подумал, робот рассудил. Если бы робот думал и рассуждал - такие рассуждения были бы не нужны ))
@AHTOH2010
@AHTOH2010 Год назад
10 лет назад было сложно себе представить как нейронные сети сейчас рисуют картинки по текстовому описанию.
@Anatoliy_-
@Anatoliy_- Год назад
Тип вешает лапшу припудренную умными и хайповыми словами. Описывается ситуация с роботом, который изначально криво запрограммирован. И величины эмпаурмента у объектов криво заданы неким неумным сторонним наблюдателем, который не понимает контекста. Понятное дело, что это не будет работать. - Давайте придумаем робота, который если видит кнопку, то обязательно нажимает её! 😅
@AHTOH2010
@AHTOH2010 Год назад
@Russian Ace нейронные сети как раз сами себя и программируют и имеют те же проблемы, когда выдают закономерные, но нежелательные для кого-то результаты.
@AHTOH2010
@AHTOH2010 Год назад
Anatoliy, ты путаешь написание программы с обучением нейронной сети (и тем более ИИ). Величины не могут быть криво заданы, потому-что там примерно миллион переменных и их невозможно задавать вручную просто из-за такого количества. Можно только придумать несколько основополагающих принципов, которые будут направлять самообучение. Про это в видео и говориться.
@user-rq8ef6gg1f
@user-rq8ef6gg1f Год назад
проще не изобретать ИИ, просто наслаждаться красотой природы, которая еще осталась у нас ))
@didaresti9880
@didaresti9880 Год назад
The beginning of World War 3 signifies that Qiyamat (The Day of Judgement) is very near. And there isn’t much time left at all, as some people have claimed and said that these events are very far away.” MuhammadQasimDreams
@val4521
@val4521 Год назад
Неслабо вы заворачиваете
@MubashiraMQ
@MubashiraMQ Год назад
The beginning of World War 3 signifies that The Day of Judgement is very near. And there isn’t much time left at all, as some people have claimed and said that these events are very far away.” #MuhammadQasimDreams
@peneruzbangsa4340
@peneruzbangsa4340 Год назад
And Russia also became active and raced the others in conquering lands in the Middle East.It was as if they were all aiming to conquer the entire world.#MuhammadQasimDreams
@Appelkan
@Appelkan Год назад
Робот подумает.....робот не думает, а перебирает варианты. Интеллект придумывает варианты а потом выбирает по какому=то критерию, если не один вариант не подходит, то надо собирать еще информацию. Или бросить эту задачу как не имеющее решение.
@RedeyeMoon
@RedeyeMoon Год назад
перебирать варинты по какому то кретерию = думать
@Appelkan
@Appelkan Год назад
@@RedeyeMoon перебирать -это последовательное действие, думать - непоследовательное
@MrDemosfen37
@MrDemosfen37 Год назад
@@Appelkan Да что вы говорите? может приведете определение слову думать?
@Appelkan
@Appelkan Год назад
@@MrDemosfen37 Я знаю что говорю. Машина играет в шахматы она думает ?
@Appelkan
@Appelkan Год назад
@@MrDemosfen37 Кто придумал шахматный алгоритм знаете?
@SAV-to9dv
@SAV-to9dv Год назад
бред какой то! нажмут кнопку и Луна возрвётса! Зачем всё это?
@Kintonq313
@Kintonq313 Год назад
USA was among their supporters and helped Israel by offering their intelligence. #MuhammadQasimDreams
@russilaforever
@russilaforever Год назад
Для робота нет выбора. Есть только программы и алгоритм, заложенный заранее. Бредятина как наука? Чел, ты сразу проиграл, потому что не знаешь правила поведения и психологию эволюции. Ты уже в минус
@VertDiderScience
@VertDiderScience Год назад
Для робота нет выбора. А для кого есть?
@solarveterok
@solarveterok Год назад
@@VertDiderScience Для Человека есть выбор всегда, как минимум 1, но не факт, что выбор этот будет приемлемым для этого человека.
@comachine
@comachine Год назад
"Есть только программы и алгоритм, заложенный заранее" - загугли что такое нейронные сети)
@andriikulenko
@andriikulenko Год назад
Дурак человек, который дал роботу такую кнопку, а не робот, вне зависимости, нажал бы он эту кнопку или нет. Робофилософия... ужас.
@ivanc4110
@ivanc4110 Год назад
Однозначно дизлайк за идиотские примеры и ответ на вопрос
@russilaforever
@russilaforever Год назад
Робот рассуждал? Вы серьёзно? О боги, уберите им финансирование
@user-gy8in7ui2c
@user-gy8in7ui2c Год назад
Ограничения ИИ?! Видео с названием "Как создать безопасный ИИ?" в 2022 году, серьёзно?! Наверное вы малость опоздали.
@gits8184
@gits8184 Год назад
Чел на серьезных щах рассказывает примитивы. Это наука ? Нет, спасибо
@letsstartdie1003
@letsstartdie1003 Год назад
Для кого как, он объясняет принцип действия ограничений ии
Далее
Мы будем есть ЭТО через 100 лет?!
00:55
Главный парадокс черных дыр
19:57
Apple watch hidden camera
0:34
Просмотров 59 млн
don't throw your faulty fan
0:24
Просмотров 2,3 млн