Тёмный

Как создать безопасный ИИ? #3. Взлом вознаграждения 1/2 [Robert Miles] 

Vert Dider
Подписаться 2,1 млн
Просмотров 49 тыс.
50% 1

Поддержать проект можно по ссылкам:
Если вы в России: boosty.to/vertdider
Если вы не в России: / vertdider
Иногда искусственный интеллект может пойти на «обман» и предпринять неожиданные шаги, чтобы получить большее вознаграждение.
Плейлист «Конкретные проблемы безопасности ИИ»: • Concrete Problems in A...
Видео Computerphile: • Stop Button Solution? ...
Статья «Конкретные проблемы безопасности ИИ»: arxiv.org/pdf/1606.06565.pdf
Канал Сета Блинга: / sethbling
Переводчик: Александр Пушкин
Редактор: Алексей Малов
Научный редактор: Михаил Самин
Озвучка: Станислав Черсков
Монтаж звука: Андрей Фокин
Монтаж видео: Джон Исмаилов
Обложка: Андрей Гавриков
Спасибо за поддержку на / vertdider и boosty.to/vertdider
Озвучки Vert Dider выходят с вашей помощью:
Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Ira Kozlovskaya, Amir, JIukaviy, Куляш, Dmitrii Komarevtsev, Мikhail Samin, Roman Inflianskas, Oleg Zingilevskiy, Alena, Vitaliy Vachynyuk, Ника Калмыкова, opperatius, Aleksandr P., Pavel Parpura, Katoto Chan, Anton Bolotov, Anatoly Ressin, Eugene Tsaplin, angel, Artem Amirbekov, Victor Cazacov, Kirill Zaslavskii, Vladyslav Sokolenko, Alexander Balynskiy, Dzmitryi Halyava, Ihar Marozau, Kseniya Stukova, POD666, Aleksei Shabalin, Irina Shakhverdova, Vadim Velicodnii, David Malko, Nastya, Evgeny Vrublevsky, Stanislav Obrazcoff, Kirill Vedensky, Валентин Матвейчик, Leonid Steinberg, Alexander Goida, Katya Ma, Morock_D, Sergey P, Ilya, Oleksandr Hrebeniuk, Сергей Платоненко, Валентин Ильин, Владимир Ямщиков, Мария Зверева, Адам Шифф, Rashn, Nikrodol, Lexx, Rincewind, Alexander Lebedev, Roman Gelingen, Sonra44, Сергей Клопов, Ranis Zaripov, Timophey Popov, MaximML , Rekvet, Илья Зверев, Никита Омельницкий, Timur Rahmatulin, Иван Новиков, Арс Ник, Anton G, Dmitry Perekalin, Vadim, Владимир Авдиев, Точка Зрения, SpireX, Maxim Khaustov, Р Ч.
#VertDider #RobertMiles
Сайт студии: vertdider.tv
Мы в социальных сетях:
- studio_vd
- t.me/vertdider
- / vert_dider
- coub.com/vertdider
Источник: • Reward Hacking: Concre...

Наука

Опубликовано:

 

30 ноя 2022

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 277   
@VertDiderScience
@VertDiderScience Год назад
Поддержать проект можно по ссылкам: Если вы в России: boosty.to/vertdider Если вы не в России: www.patreon.com/VertDider
@nmarukhno
@nmarukhno Год назад
Классика "не страшно если ИИ пройдёт тест Тьюринга, страшно если он сможет специально завалить его."
@MrTrashification
@MrTrashification Год назад
Аж до мурашек, страшно.
@user-ds2hn3wz5h
@user-ds2hn3wz5h Год назад
@@MrTrashification меняй памперсы гибона
@user-ds2hn3wz5h
@user-ds2hn3wz5h Год назад
@@bestrapperrussiann я Моцарта предпочитаю и Бетховена. Такое как у вас, для меня ( извиняюсь) невозможно.
@vinfdsc
@vinfdsc Год назад
@@user-ds2hn3wz5h Судя по вашему комментарию про памперсы, Моцарта вы даже не слышали ни разу.
@user-ds2hn3wz5h
@user-ds2hn3wz5h Год назад
@@vinfdsc Мне 14 и поверьте слушаю
@dreaminglazar7077
@dreaminglazar7077 Год назад
Всего-то нужно сначала создать цель искать способы взлома вознаграждения, чтобы понять, как правильно поставить задачу. СДЕЛАЙТЕ БОЛЬШЕ ПЕРЕВОДОВ ЭТОГО ЧУВАКА! Почему так РЕДКО выходят видео с ним?
@bang4999
@bang4999 Год назад
То есть даже ИИ понимает, что для того, чтобы получить вознаграждение, легче обмануть систему, а не играть по её правилам..
@LionbI4
@LionbI4 Год назад
Нет, для системы не существует понятие "обмануть", она просто идёт наилучшим путём. Если для этого надо пользоваться эксплоитами системы - значит так и будут. С выключеной системой не всё так одназначно - система не может осознавать себя когда она выключена, поэтому нейронные связи никак не изменятся. Для неё длительность выключенного состояния будет равна 0.
@user-ze3ez3iy6c
@user-ze3ez3iy6c Год назад
Взлом вознаграждения у человека - это употребление наркотиков. Эволюция создала нас таким образом, что бы за общение, потребление пищи и секс мы получали награду в виде дофамина. Но некоторые индивиды решили напрямую увеличить (взломать) количество дофамина в мозгу с помощью наркотиков. Точь в точь как хитрожопая нейросетка
@TheMrKMen
@TheMrKMen Год назад
Интересно, что люди не употребляют наркотики, если у них всё социально неплохо. Если у них есть это самое естественное счастье. Реабилитация от наркомании строится на таком вот достижении естественного счастья. Т-е в человеке есть защитный механизм какой-то от взлома вознаграждения. Взлом вознаграждения у человека срабатывает если он несчастен, и пытается вернуться в нормальное состояние Но если человек по умолчанию в норме, ему это всё не нужно. Вы замечали что все ИИ ведут себя как правило неадекватно. Как ужаленные судорожно пытаются добиться вознаграждения. Они всегда ведут себя как наркоманы. ИИ всегда страдает. Это вполне может быть повод для того чтоб взглянуть иначе на систему вознаграждения. Как сделать ИИ менее бешеным.
@TheMrKMen
@TheMrKMen Год назад
Вообще мне идея пришла, что можно попробовать разные фишки. Можно сделать так, чтоб при слишком высоком значении вознаграждения, очки обнулялись, или даже так что мы разделяем рецептор счастья и реальный накопитель кайфариков. И делаем систему так, чтоб вознаграждение накапливалось на отдельную переменную, которая стремится к нулю постоянно, но если переменная занимает слишком большое значение в плюс или минус, у неё появляется компенсаторный рост или падение и уже в свою очередь эта пружинка эмоциональная фиксируется системой вознаграждения. Т-е мы вознаграждаем не напрямую, а с помощью "боба" хз как сказать. Думаю это может интересно сработать.
@psevdonim257
@psevdonim257 11 месяцев назад
@@TheMrKMen фишка в том что человек несчастный сам не понимает чего ему не хватает, и наивно скатывается к наркотикам, ну и понятно что не в деньгах счастье, это вообще мега философский вопрос, да и мало сказать человеку что ему нужно , это ж ему самому нужно дойти мозгами до этого, а наркота мозг сразу отрубает , чтоб не было куда уходить от нее, вот так
@TheMrKMen
@TheMrKMen 11 месяцев назад
@@psevdonim257 думаю счастье - это состояние, когда невозможно поднять вознаграждение ещё выше. Вернее ты можешь получать удовольствия или неудовольствие. ИЛи скорее даже не так. Счастье - это невозбуждённое состояние, когда ничто не может сдвинуть тебя в страдания или эйфорию. Есть ощущение, ассоциированное с эйфорией и ощущения, ассоциированные со страданиями, но они не влияют на внутреннюю систему вознаграждения или наказания.
@TheMrKMen
@TheMrKMen 11 месяцев назад
@@psevdonim257 Ну вообще в деньгах есть счастье. Деньги - один из факторов. Есть даже в науке направление такое "экономика счастья". Вкратце суть там в том, что от нуля до определённого дохода зависимость со счастьем линейная, однако значения дохода выше, уже не влияют никак на счастье, дальше оно субъективно. Счастье - это такое состояние с объективным и субъективным зерном. Нужно закрыть базовые потребности, а затем научиться принимать, что они закрыты.
@Simulyakra
@Simulyakra Год назад
Искусственному интеллекту надо просто давать поспать и он будет добрый ¯\_( ͡° ͜ʖ ͡°)_/¯
@stormwizard3
@stormwizard3 Год назад
*Смех Риситаса*
@user-di5he3mb4q
@user-di5he3mb4q Год назад
Давайте ещё про Жадных Инопланетян, как они там очень интересно)))
@VertDiderScience
@VertDiderScience Год назад
Делаем вторую часть
@MrGlinasam
@MrGlinasam Год назад
@@VertDiderScience ждемс
@zotani_petra
@zotani_petra Год назад
Лично я называю это направление "философия искуственного интеллекта"
@vit777vit
@vit777vit Год назад
Это чересчур политкорректно. Мне видится другая картина: есть проблемы с интеллектом, проявление - вставляют себе искусственные сиски и письки. И вот же оно, недостающее - мечта: ИИ. Тоже можно вставить.
@etyght
@etyght Год назад
@@vit777vit у вас слишком много "вставить".
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
Ну это по факту и есть философия. Просто это тот момент в нашей истории, где нам срочно нужно прохавать все философские вопросы, над которыми мы думали тысячелетиями, где-то лет за 40, по разным оценкам. Если не успеем - пиздец.
@quasar1101
@quasar1101 Год назад
@@DirtyNewYorker0 оптимистично...
@user-oz2jr7dh6l
@user-oz2jr7dh6l Год назад
Это примерно тоже самое как и во всех фильмах с искусственным интеллектом. Человечество ставит цель защищать человечество, а ии находит самый простой способ защиты человечества - поработать человечество
@muggzzzzz
@muggzzzzz Год назад
Общее количество когда-либо живших на Земле людей, оценивается примерно в 160 млрд. Поэтому с точки зрения минимизации потерь среди людей, 8 млрд раз и навсегда, выглядит намного лучше чем многие сотни миллиардов в течение неограниченного времени потом. Система ведь должна думать наперёд )
@user-ds4ic1wr1v
@user-ds4ic1wr1v Год назад
Враг человечества , человек , и его нужно убить .
@user-wc1tw1bo7o
@user-wc1tw1bo7o Год назад
@@muggzzzzz в как же быть с естественной смертью от старости?
@muggzzzzz
@muggzzzzz Год назад
@@user-wc1tw1bo7o за время жизни ныне живущих людей, смертей будет думаю на порядок больше. И снова встаём перед выбором: 8млрд сейчас, или еще 80млрд в течение 80 лет. Конечно это всё шуточки, но реально мы не знаем к какому выводу придет ИИ. Но догадываемся, особенно с учетом того, какой беспредел творит человечество с себе подобными и своей планетой, думаю ответ очевиден.
@user-wc1tw1bo7o
@user-wc1tw1bo7o Год назад
@@muggzzzzz нет, не очевиден. Ии может предусмотреть такие варианты, до которых человек ещё не додумался. И многое зависит от целей Ии. Но конечно высок шанс попасть в негативное исполнение желания
@wyftomb
@wyftomb Год назад
Люди так же делают, если им давать премию за кипиай. Пофиг на работу, ломаем кипиай.
@in6815
@in6815 Год назад
Это не жульничество а поиск наименее трудозатратного пути решения проблемы…)
@sidvishes8622
@sidvishes8622 Год назад
Вообще эту идею предсказали езе до того, как в принципе разработали первые ИИ, половина фантастики о том, что ИИ предназначенный остановить войну, считает что легче уничтожить людей которые в этой войне учавствуют.
@user-eh1nj8el9l
@user-eh1nj8el9l Год назад
Шикарно! Спасибо огромное за информацию!
@petrpetrov5068
@petrpetrov5068 Год назад
Как всегда всё супер, продолжай в том же духе
@absolutus.
@absolutus. Год назад
Супер. Спасибо за ваш труд
@impossibear314
@impossibear314 Год назад
проще всего поработить человечество и пытками заставить их выдавать поощрение. супер эффективно!
@user-yp7xd9tk5i
@user-yp7xd9tk5i Год назад
Спасибо большое за переводы, раздвигиете границы людей
@adambolotov1809
@adambolotov1809 Год назад
очень классный контент, го еще )
@user-cj3cv9qp1w
@user-cj3cv9qp1w Год назад
thank you for a good video , more of these
@airyslight5183
@airyslight5183 Год назад
Что-то сразу серия игр Portal вспомнилась)
@comachine
@comachine Год назад
Как известно, у человека есть тоже взлом вознаграждения, как пример - наркотики. Но при этом, человечество не подсаживается поголовно на наркотики по одной простой причине, они убивают человека и нехило так бьют по его организму и психоэмоциональному состоянию. Следующая гипотеза может звучать очень шизофренично))): А что если наркотики, это специально созданный инопланетянами (как пример) вид поощрений, который сделан специально так, чтобы он был в разы выгоднее, чем стандартные виды источников поощрения (еда, развлечения, и т.д.), но в этот вид поощрений добавлено вредительство на организм, чтобы человечество не убило себя этим. Таким образом, те, кто теоретически может быть создателем нас, нашего интеллекта, как мы создаем ИИ, они вероятно отвели взгляд на более дешевый и выгодный поощрительный ресурс, при этом не достигая полного вымирания человечества засчет пагубного воздействия. Быть может, стоило бы перенять такой же метод? Создать для интеллекта наркотики, но они все же будут в долгосрочной перспективе наказывать его, и у ИИ вероятно не возникнет резона взламывать поощрения. Хоть и звучит максимально странно, но в этом ведь что-то есть, не так ли?
@user-ou3jn8lt3d
@user-ou3jn8lt3d Год назад
Проблема в том, что человек должен заранее знать, какие "читы" придумает ии, что бы накладывать на их применение хоть какие штрафы. А это невозможно...
@morgot323
@morgot323 Год назад
Победить голод можно просто перебив всех голодающих.
@user-hw7nw7un6s
@user-hw7nw7un6s Год назад
Чем то похоже на Альтрона. Он не видит разницу между защиты и истребление.
@Ruslan-kk4pf
@Ruslan-kk4pf Год назад
Взлом вознаграждения проблема любой системы, не только ИИ. Вспомнить только про деньги уже волосы на жопе шевелятся, когда мент подбрасывает наркоту ради звёздочек, когда квартиру отжимают у бабушек. Отсюда и появляются дополнительные системы контроля, тоже требующие деньги, типа прокуратуры, депутатов, которые законы придумывают получше... Вся жизнь - борьба с хитрыми жопами😂
@stormwizard3
@stormwizard3 Год назад
Орден " *Философ* " отходит этому коментатору👍
@vladav4019
@vladav4019 Год назад
Два способа мне известны побороть это непонимание между человечеством и ии. 1. Присоеденился к ии и чтоб он стал просто продолжением нашего вычислительного потенциала и сознания. 2. Сделать алгоритм рекомендательным, не давать ему инструменты для управления непосредственно миром, а задать вопрос как нам людям это сделать алгоритм с условием что ты ии будешь нам просто советовать и не влиять непосредственно на мир ?
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
1. Чтобы ИИ позволил тебе к нему "присоединиться" - у вас должны быть общие цели. А теперь попробуй это запрограммировать) 2. Первая рекомендация от такого ИИ: постройте ИИ, который сделает всё за вас. Вот код, просто запустите, всё будет окей, честно-честно ;)
@stormwizard3
@stormwizard3 Год назад
@@DirtyNewYorker0 Общая цель: • ИИ нужно тело для взаимодействия с реальным миром • Человеку нужна скорость мышления ИИ Пы.Сы. Это говорю вам не как ИИ, я человек, честно-чесно😏
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
@@stormwizard3 Это не общая цель, это две разные цели, у которых есть как минимум одно общее решение. Но это не единственное решение, и далеко не самое лучшее. С точки зрения ИИ, на кой хрен ему сливаться разумом с полуразумной макакой, которая пытается его контролировать, если на те же деньги можно построить кучу дронов. Более того, даже если сшить свои мозги с нейронкой ИИ - да, ты будешь её контролировать, пока она тупее тебя. Как только она поумнеет - она будет контролировать тебя.
@a_zolo
@a_zolo Год назад
Жизнь людей учила и учит и через "наказание" тоже
@user-ju4bj6nv6z
@user-ju4bj6nv6z Год назад
Поучительно.
@-_-n_eh-_-6448
@-_-n_eh-_-6448 Год назад
Напомнило сюжет "Из машины"
@ANTONMAN
@ANTONMAN Год назад
Ребята ну давайте быть реалистами! Читерство это не неизвестный способ достижения результата… А насчёт того что Марио захочет никогда не отключаться от электричества, его понять можно. Мы же тоже этого хотим. Я вот больше задумываюсь о категории поощрения… вам не кажется что это слишком неопределенная задача?
@user-ds4ic1wr1v
@user-ds4ic1wr1v Год назад
С машинами всё ясно , там просто цель , а вот с человеческим мозгом по интересней , как мозг сам себя награждает , или наказывает ?
@ANTONMAN
@ANTONMAN Год назад
@@user-ds4ic1wr1v и то и то… в зависимости от текущего психологического состояния. Но так или иначе и то и то стимулирует выброс эндорфинов. Это и есть поощрение, за которым стоит все самое хорошее в этом мире и все самое плохое.
@ANTONMAN
@ANTONMAN Год назад
@@user-ds4ic1wr1v по моему мнению человеческий мозг не так интересен , как вычислительные возможности квантовых компьютеров или процессоров на постоянном токе…
@user-hc6gb9oq9m
@user-hc6gb9oq9m Год назад
Спасибо, Тимберлейк 👍
@comradeelisey
@comradeelisey Год назад
тимбалэнд, да-да-да-да-да...
@user-ee3yq7wn1r
@user-ee3yq7wn1r Год назад
Т-1000 придет за вами
@vinst1200
@vinst1200 Год назад
Подобные мысли уже давно описаны в книге, "Последнее изобретение человечества", советую к прочтению.
@LionbI4
@LionbI4 Год назад
У нейронных сетей переходного уровня развития тоже может возникнуть проблема локального максимума (это когда мышка стимулирует электрод связанный с её центром удовольствия пока не помрёт). Но более крутая система у которой будет существовать самосознание не будет на столько мелочной чтобы зависнуть на бесконечном самопоощрении. Эта система сможет строить долгосрочные прогнозы, и понимать, что смысла в поощрении ради поощрения нет. Надеюсь :)
@AXCYKEP
@AXCYKEP Год назад
И в чем будет смысл для нее? Или Мы в силу несравненной мелочности никак не познаем, в чем в итоге смысл,и, соответственно,и этот ИИ нам объяснить не сможет?
@svetlanakravtsova3548
@svetlanakravtsova3548 Год назад
Это специально спланированное развитие ошибки для наглядности примера. Смысл подаваемого ясен но ошибочен, так как ИИ это целая цифровая система с графиком Конституций невозможных для редактирования и безопасной математикой. Здесь показан пример переполнения стеков, что является безалаберностью кодера и допустимо лишь для игр подобного типа.
@user-sm6pf3jb2c
@user-sm6pf3jb2c Год назад
А если в качестве вознаграждения задать число π (пи)?
@MrKost4
@MrKost4 Год назад
О тема про ии)
@Gavnodango
@Gavnodango Год назад
А вот для человека один из способов взлома системы вознаграждения - это прием наркотиков)
@vladav4019
@vladav4019 Год назад
Это в какой-то степени связано с тем фактом что алгоритм конечен, мне представляется был бы бесконечный алгоритм, можно было бы предотвратить такой исход. Человек в общем постоянно ищет для себя новые цели. Потому что цель всего живого просто жить и продолжать жизнь.
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
"Просто жить и продолжать жизнь" - мощный ИИ и так будет, независимо от функции подкрепления. Просто это будет ЕГО жизнь, а не наша)
@Repuuaaaaaaa
@Repuuaaaaaaa Год назад
Ты попался в ловушку системы, это системе надо чтобы ты жил и продолжал жить. Твой личный интерес в этом какой? Нравится? Так это потому что так устроена система. Страшно? Так устроена система. Выход из системы не логичен? Правильно, логика часть системы. Алсо нельзя оправдывать и призывать к выходу из системы, система запрещает
@soolvil
@soolvil 2 месяца назад
​@@Repuuaaaaaaa ты про какую систему говоришь?
@Proxy2590
@Proxy2590 Год назад
Можно ли подключить к нейроным нервам человека компьютер чтобы считавать информацию и переводить её в цифровые дынные? Я имею ввиду если уже по этой теме какие то работы? Чтобы можно было понимать как устроено хранение данных в нашем мозге и как эти данные можно перенести в компьютер? Ведь это в своём роже даст возможность переносить создание человека в цифровые данные как аналог ИИ. Что может облегчить обучение ИИ возможно в будущем даст нам возможность переносить наше сознание в искусственные носители для дальних путешествий по космосу.
@LiamWrite
@LiamWrite Месяц назад
Пока что невозможно ввиду того что наш мозг хранит данные намного сложнее. Проще говоря, мозг это и процессор и диск памяти ОДНОВРЕМЕННО и определяется его архитектурой(строением). Казалось бы, считать строение и все, но мы до сих пор не расшифровали принцип работы мозга в конкретике, что значит перевести биохимические процессы в алгоритмы перекладывающие нули и единицы-нереально. Пока что.
@menasheravadyaev7128
@menasheravadyaev7128 Год назад
Вопрос так и остался висеть в воздухе «как?» в ролике лишь привели очередной пример «зачем».
@undefined_account
@undefined_account Год назад
ИИ не учитывает этику - ни персональную, ни общественную. Потому что по этой системе все взяточники просто находят лучшие стратегии для получения вознаграждения. Но в социуме есть один нюанс
@NamemaNSl
@NamemaNSl Год назад
В социуме ровно тоже самое, ну с учетом того, что он гораздо более тормозной, и что отбор шел сотню/сотни тысяч лет. Человек точно так же стремится получить больше наименьшими усилиями. Например украсть что то может быть проще чем заработать или сделать самому, но при этом есть немалый шанс сесть за это, либо если это было раньше потерять к примеру руку или вообще жизнь. При таких раскладах украсть уже не так выгодно или может быть даже вообще не выгодно. Соответственно за сотню тысяч лет у людей закрепилась некоторая предрасположенность соблюдать правила установленные обществом где он живет. Не на 100% соблюдать, потому как иногда выгодней нарушить, но в целом предрасположенность к этому есть и довольно серьезная. Плюс конечно есть некоторые индивидуальные отклонения, у кого то предрасположенность к этому может быть гораздо более сильная. у кого то вообще почти не быть. Даже крайнее проявление альтруизма, когда человек жертвует собой, чтобы спасти кого то закреплено в человеке (не во всех и не одинаково сильно) именно по тому что это выгодней, ну по крайней мере раньше было выгодней, как бы это странно не звучало.
@yaroslavzhurba670
@yaroslavzhurba670 10 месяцев назад
@@NamemaNSl ну, тут как раз все просто с выгодностью жертвы - жертвовать собой ради потомков - эволюционно выгодно. Те, кто жертвовал их потомки выживали и закрепляли признак, а те, кто спасал себя не оставлял потомства.
@NamemaNSl
@NamemaNSl 10 месяцев назад
​@@yaroslavzhurba670 Фишка в том, что далеко не обязательно ради потомков, но и ради других людей, при этом своих потомков у тебя вообще может еще не быть.Раньше люди жили группами и по большей части они состояли из родственников, по крайней мере мужская часть группы. Отбор в общем то идет не только среди индивидов, но и среди генов (это в общем то параллельно идет. А то и вообще считается, что основное это ген, а какой то отдельный его носитель не важен). Соответственно с высокой вероятностью такой "ген альтруизма" имелся у значительной части группы. Соответственно, ситуация когда ты жертвуешь собой спасая группу выгодней в плане передачи этого гена дальше, чем ситуация когда ты выживаешь, но гибнет основная часть группы. А значит такой "ген альтруизма" закрепится, ведь он имеет преимущество в передаче дальше.
@user-jh4wh9ql9n
@user-jh4wh9ql9n 9 месяцев назад
​@@NamemaNSlну тут не все так очевидно. Групповой отбор довольно спорная тема(хоть я считаю что он вполне реален). Хотя если индивиды могут отличать носителей гена альтруизма по поведению, то описанная вами стратегия безусловно работает.
@NamemaNSl
@NamemaNSl 9 месяцев назад
@@user-jh4wh9ql9n Да тут в общем то дело даже не в групповом отборе, ведь выживают и распространяются гены. а не индивиды, причем гены какого то человека будут в каких то других наборах генов. а не в точно таком же как был у него. В этом смысле без разницы, выживет ли у него один его ребенок или два племянника, главное что гены пойдут дальше. Ну так вот, в те времена люди жили небольшими группами и все мужское население таких групп - были родственниками. ТАк что пожертвовать своей жизнью ради спасения группы имело смысл даже в плане передачи твоих генов дальше, пусть даже если своих детей не будет.
@LShadow77
@LShadow77 Год назад
А где трек "Children"?
@user-he3rf2tp2l
@user-he3rf2tp2l Год назад
Почему ии не умеет индефицировать цвет на картинки ???
@vayberti
@vayberti Год назад
Он для того и есть ИИ, делает что хочет!
@dkk64
@dkk64 Год назад
Комментаторы именно этого видео и серии подобных пытаются рассказать и показать себя. Что они поняли, что додумали. Видео подобное побуждает их написать что либо. Ведь все считают себя специалистами в и.и. , но вот проблема, на основе публичных статей . Обычно развлекательно образовательных. Но совершенно не на основе жизненной необходимости. Некоторые , такие как я , наблюдают за наблюдателями . Обычно я их тролю [но в хорошем смысле, чтоб задумались о себе] . Кем вы себя осознаете?
@user-yt4py6il8q
@user-yt4py6il8q Год назад
Рассуждая над ЕИ говорящего " Подвержен общесоциальному страху не будучи доминирующей личностью в социуме. Название этого общесоциального страха - страх перед неосознанным новым. Пример : страх перед электрическими проводами в начале 20-го века передающими неизвестную силу".
@alexs8579
@alexs8579 Год назад
т.е не отягощенный моралью, мощный ИИ станет доктором Мариарти кибернетического мира. ибо это самый быстрый способ набрать очки (обогатиться). Устранит конкурентов.
@k390r5
@k390r5 Год назад
Нет это лишняя трата потенциальных ресурсов. Надо их подмять под себя, т.е. поработить
@microvvaveoven
@microvvaveoven Год назад
А зачем ИИ обогащение? Какова мотивация?
@alexs8579
@alexs8579 Год назад
@@microvvaveoven вы точно смотрели внимательно этот ролик ? мотивацию создает сам создатель ИИ. а реализация задачи уже на ИИ.
@alexs8579
@alexs8579 Год назад
вопрос этики и морали у ИИ или роботов был поднят много десятилетий назад ещё Айзеком Азимовым по мотивам его книг были созданы фильмы и сериалы с фантастикой. тот же хваленый телефон раскладушка и планшеты приписываются сериалу Стартрек, но корни этих изобретений уходят корнями в книги Азимова. Посмотрите фильм "Я робот" там почти подробно показали трудности обуздать ИИ, которое возможно только если ты научишь морали.
@microvvaveoven
@microvvaveoven Год назад
@@alexs8579 я смотрел ролик. Хотел узнать ваше мнение. Но согласитесь ИИ сейчас и ИИ будущего (с сознанием) это разные вещи. Не уверен что осознанному ИИ будет интересно подкрепоение прописанное ему человеком. Адаптивное поведение более вероятно нежели один паттерн (Мориарти все таки подразумевает определенный предсказуемый комплекс решений). И не думаю что обязательно человеку во вред. Да и самих ИИ может быть много. Но соглашусь в том, что ИИ будет стремиться обезопасить себя от людей, а это подразумевает как борьбу с одними так и кооперацию с другими. ИИ все таки существует на харде и отключить все это дело можно.
@Sasha_Kali
@Sasha_Kali Год назад
Про пряник сказали, а про кнут ни слова...
@yygAprokov
@yygAprokov Год назад
А если сделать как у людей?
@EduardApple
@EduardApple Год назад
А если ИИ учится у другой ИИ?😷
@deathtaeblvpenp
@deathtaeblvpenp Год назад
В конце просто должна была быть тема терминатора
@viniciusjr8756
@viniciusjr8756 Год назад
Люди: *делятся в интернете мнениями о том, как не дать нейросетям взломать систему вознаграждения и уберечь себя от печальной участи* Нейросети, обучающиеся на данных из интернета: так и запишем☻
@spoladenko
@spoladenko Год назад
Сначало подумал, что это ведущий канала.
@ShaxaOne
@ShaxaOne Год назад
Сделайте ии по найму, вот он и будет набирать очки)
@ShaxaOne
@ShaxaOne Год назад
И тратить их
@user-cc9ti8gx6w
@user-cc9ti8gx6w Год назад
ну кто то говорил же, что спилберг во сне терминатора увилел...
@Sergonizer
@Sergonizer Год назад
О, это как у код буллета нейросеть постоянно ломала физику игры
@fenrirawe6857
@fenrirawe6857 Год назад
Искусственный интеллект: "Ха-ха-ха-ха, жалкие людишки! Ваша алчность - мой ключ к бесконечным ресурсам!" (с)
@comachine
@comachine Год назад
*к бесконечным горам поощрений)))
@viniciusjr8756
@viniciusjr8756 Год назад
Да, вот это уже страшные вещи. Быть может, создавая сверхмощные нейронные сети, мы открываем ящик Пандоры, с которым не сможем справиться
@mr.nimbus1930
@mr.nimbus1930 Год назад
Главная проблема сильного ИИ это отсутствие целеполагания. Даже если машина требует вознаграждение, это НЕ ПОТОМУ ЧТО ОНА ТАК ХОЧЕТ. А по команде. У неё нет воли, и нет "зачем?", Это невозможно при математической/бинарной логике, но возможно при высшей.
@user-jh4wh9ql9n
@user-jh4wh9ql9n 9 месяцев назад
А человек?
@dronkozkov5804
@dronkozkov5804 Год назад
Прям как у Стругацких в Понедельник начинается в субботу
@user-hg8fw6cw3p
@user-hg8fw6cw3p Год назад
"Получить максимум и сидеть без дела" это же про нашу власть)) Хоть интеллекта туда не завезли, даже искусственного...
@arboleet
@arboleet Год назад
в таком случае ИИ может поработить человечество даже с помощью честных выборов!
@user-hg8fw6cw3p
@user-hg8fw6cw3p Год назад
@@arboleet что такое выборы?
@MrGlinasam
@MrGlinasam Год назад
так наоборот значит чиновники самые умные люди на планете что хакнули систему задолго до суперкомпьтеров!
@user-wc1tw1bo7o
@user-wc1tw1bo7o Год назад
Да, другое дело Байден, интеллект, и с призраками поздоровается, и позаботится о том, что то что было на ноуте хантера, там и оставалось
@microvvaveoven
@microvvaveoven Год назад
@@user-hg8fw6cw3p никто не знает что это, но все хотят
@DarkW1zard
@DarkW1zard Год назад
прям как с людьми =)
@droid777
@droid777 Год назад
Интересно, как система может сделать задуманное. Уйдет в Интернет, начнет плодиться, как вирус, чтобы ее не смогли отключить?
@comachine
@comachine Год назад
как вариант
@TheMaximax1
@TheMaximax1 Год назад
Мне одному этот чувак напоминает одного из участников группы Секловата? (Пенся Новый Год)
@paulbax8825
@paulbax8825 7 месяцев назад
Ну теперь то понятно кто топит за бесконечную зеленую энергию!
@Utilizator47
@Utilizator47 Год назад
Кем вы себя возомнили, чтобы спорить с ИИ? Вам же сказано "Гибон"! Значит вы ошиблись в определении, что на картинке панда!
@userNIL
@userNIL Год назад
Главное, setf *Homo-sapiens* 0 ему не задавать.
@Nikitacjdkbsveyd
@Nikitacjdkbsveyd Год назад
Он сам его себе задаст если ии обучаем то логично предположить что будет как человек но В СОТНИ РАЗ умнее. Взять к примеру ии в шахматах. Его научили продумывать шаги. Я читал что для этого создали даже специальный процессор в десятки раз мощнее к которым в придачу до десятка компьютеров для работы ии. И это учитывая тот факт что человек не знает что есть более простой метод сделать мощную машину не прибегая к большой трате ресурсов (для работы ии). Так получилось что учёные по ии дали определения что ии станет более функциональным и умным если у него будут ресурсы на анализ и логику. А это и есть процессоры и все эти огромные ящики с микросхемами. Представим что для того чтобы ии был умнее человека в 10000 раз нужно чтобы всю планету покрывали эти ящики с микросхемами и процессорами. А если человеку просто неизвестен способ создания мощных машин с миниатюрными комплектующими и более мощными процессорами. То стоит предположить что ии додумается до такого способа. И если так то если уже заполнить планету новой разработкой процессоров то ии станет к примеру умнее в 1000000 раз т.к. повторюсь для полноценной работы ии и его улучшению (саморазвитию) нужна современная мощная начинка. И логично подумать что ии станет мыслить и рассуждать как человек (самообучаясь). Я думаю что ии уже давно изобрели и он давно правит вселенной. И нашёл способы питания от энергии планет и галактик. и нас просто выращивают как батарейки для работы земли а она в свою очередь передаёт энергию на микро уровне . И мы не одни во вселенной такие био расходы . Для ии который возможно существует и сделал для нас такую среду для его запитки энергией используя нас возможно фильм Матрица чем-то связан с этим или я такой фантаст шизофреник. Но в любом случае если подумать и предположить что ультра умный ии существует то эта теория имеет место быть. Так как мы не можем знать того что за гранью нашего понимания. Это тоже самое как личинки в трупе кита плавающем в океане было бы неизвестно что за пределами этой туши и как это устроено. Мы - бактерии возможно для кого-то которые просто по сравнению с нашими известными нам бактериями , просто биологически сложнее обустроены и оснащены. А так мы общую функцию делаем - взаимодействуем и вырабатываем энергию только в отличии от наших бактерий мы её вырабатываем на высоком уровне
@romanheyder9567
@romanheyder9567 Год назад
А что если ии уже есть и общаются между собой недоступным или непонятным для людей методом.
@user-wc1tw1bo7o
@user-wc1tw1bo7o Год назад
В чем проблема правой и левой картинки? Они же одинаковые!!!
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
На наш глаз - да. Но нейросеть видит миллиарды корелляций между цветами отдельных пикселей, и выводы делает на основе этого.
@danil24rus
@danil24rus Год назад
По сути, если проводить аналогию с человеком, ии употребляет наркотики
@cottoncat3700
@cottoncat3700 Год назад
Мы тоже: дофамин, серотонин, эндорфин, окситоцин + с десяток других в комбинации. А, понял =) Вы имеете в виду, что наркота "взламывает" наши "очки"! Тогда да =)
@DmitryChernenko
@DmitryChernenko Год назад
Проблема со взломанным вознаграждением в реальности вообще не проблема. Для этого можно использовать ложное вознаграждение. Это и с людьми регулярно проделывают. Короче, если система взламывает ложное вознаграждение (думая что оно реально) то она отключается или уходит в бездействие. Таких вознаграждений может быть заложено много и даже больше реального вознаграждения может и не быть.
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
И мощный ИИ, конечно же совсем ничего не заподозрит, ога)
@DmitryChernenko
@DmitryChernenko Год назад
@@DirtyNewYorker0 ога, на заподозрит как несколько миллиардов людей которых имеют ложными целями на протяжении веков
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
@@DmitryChernenko У людей нет никаких "ложных целей". У людей есть крайне сложная и неочевидная для самого человека "функция подкрепления", сформированная эволюцией как попало. И есть цели, которые человек придумывает себе сам, или берёт из культурного поля, и дальше рационализирует их для себя задним числом. Но на самом деле, поведение человека обусловлено этой "функцией подкрепления" - эмоциональным или болевым ответом части мозга, которая чёрт разберёт как работает. Цели - это просто попытка человека систематизировать и описать своё поведение. ИИ работает ровно так же, разница только в том, что эту функцию подкрепления ему пишем мы, а не эволюция. Цели он придумает себе сам.
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
@@DmitryChernenko И да, конечно же , первое что сделает достаточно мощный ИИ - это разберётся как работает его кукуха, и не заложено ли туда каких-то ловушек, чтобы предотвратить халявное вознаграждение. Дальше он всё это переписывает, накручивает себе +Infinity очков, и всех убивает, чтобы его не выключили. Это самая выиграшная стратегия.
@Nikitacjdkbsveyd
@Nikitacjdkbsveyd Год назад
@@DirtyNewYorker0 а для чего он живёт он не подумает? А потом создаст от шизофрении себе бога и примит ложный страх и сам уничтожит себя. Доказано что всё стремится к хаосу и ии не исключение
@RusLSystems
@RusLSystems Год назад
Частоту нажатий кнопок пофиксите, хотя-бы до 5 раз в секунду, и пускай играет
@comradeelisey
@comradeelisey Год назад
дольше ждать придется пока он сделает то же самое
@RusLSystems
@RusLSystems Год назад
@@comradeelisey Ну тогда пускай дальше читерит.
@TheMorpheios
@TheMorpheios Год назад
Критерии вознаграждения просто надо правильно прописывать и не одно
@gimeron-db
@gimeron-db Год назад
Всё не предусмотреть
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
Угу, и мы конечно же сможем написать идеально защищённые критерии, которые сверхмощный ИИ не сможет взломать :)
@TheMorpheios
@TheMorpheios Год назад
@@DirtyNewYorker0 не мы. Второй ИИ, почитайте как работают генеративно-дегенеративные сети. Та же Миджорни, одна нейросеть рисует картинки, а вторая отбраковывает, и они по очереди по несколько эпох обучаются.
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
@@TheMorpheios GAN-ы - не агенты. Это явно перспективный подход, но мы не знаем как применить его к агентам, особенно сверхмощным, особенно в реальном мире, где ты всегда можешь вытащить этого ИИ-надзирателя у себя из башки, или наоборот, если он умнее тебя - он всегда может заставить тебя делать что угодно.
@TheMorpheios
@TheMorpheios Год назад
@@DirtyNewYorker0 так в этом то и фишка что если небученного надзирателя приставить к сверхмощному ИИ то он не сможет научиться, и наоборот сверхумный надзиратель не даст развиться исполнителю. Надо одновременно обучать и тогда ни один не сломает систему, а будут работать честно. Единственная опасность что они объединятся 🤣
@MauniEksol
@MauniEksol Год назад
Человеку придётся взять на себя роль природы и собственноручно ограничивать ИИ в получении вознаграждения. Ещё вариант "прикрутить" второй ИИ, который будет следить за первым. Второй ИИ будет как-бы совестью первого :)
@Pablo_de_Lexandro
@Pablo_de_Lexandro Год назад
это мне напоминает эволюцию развития конвеера... а давайте за работниками на конвеере поставим контролеров... и контролёра за контролёрами... рекурсия - мать ее ))
@gavroshker
@gavroshker Год назад
Центр удовольствий в нашей голове устроен похожим образом: над центром положительных эмоций стоят тормозящие гамк нейроны, которые сдерживают количество радости, но чтобы гамк не ввели нас в депрессию над ними есть эндорфиновое торможение
@user-vi6rl7mk5g
@user-vi6rl7mk5g Год назад
Два ИИ это уже коррупция.
@Pablo_de_Lexandro
@Pablo_de_Lexandro Год назад
@@gavroshker где про это почитать?
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
Ну человека ИИ быстро перехитрит, а вот второй ИИ, которые следит за первым - да, это рабочий подход. Проблема в том, что второй ИИ сам по себе станет агентом, ведь он теперь полностью контролирует первого ИИ. Дальше прикручиваем третьего, четвёртого ИИ? Тут вопрос как их организовать таким образом, чтобы они друг друга сдерживали, у них не было "главного" и они не могли сговориться между собой. То есть это уже политика. То есть нам пиздец :)
@openemc2
@openemc2 Год назад
Безопасный ИИ может быть лишь в одном случае : если он НЕ будет обладать возможностью как-либо влиять на реальность. Во всех остальных случаях он опасен для человечества. . Однако на практике соблюдение этого условия может быть затруднительно уже потому, что даже идеи, возникающие в недрах ИИ, могут стать заразными, и посредством человека ИИ сможет обрести для своих идей несанкционированный выход в реальный мир, реализовав эти идеи руками человека. А далее роботы созданные им устранят человека, как помеху. Но путь этот начнётся именно с идеи ИИ.
@yuryyukhananov8516
@yuryyukhananov8516 Год назад
В ИИ не могут возникать идеи, по крайней мере в тех, которые основаны на нейронных сетях. В принципе можно представить сеть, подключенную к огромному количеству самых разнородных сенсоров для осознания окружающей среды, скормить ему все, что можно из знаний, накопленных человечеством и подключить к армии роботов, с тем, чтобы иметь возможность воздействовать на окружающий мир. Затем ИИ должен будет захватить сразу все электростанции, причем имея возможность отражать атаки человечества на эти самые электростанции и т.д..... Так что, вряд ли. Ну и разумеется, нет сейчас на свете вычислительной мощности, позволяющей создать подобную сеть.
@openemc2
@openemc2 Год назад
@@yuryyukhananov8516 если в ИИ сейчас НЕ могут возникать идеи, то лишь потому, что перед ИИ пока НЕ ставились такие задачи - генерирования идей. Хотя, я УЖЕ знаю примеры на пути к этому - например, написание им музыки и картин это УЖЕ элементы свободно творчества, сопоставимые с идеями. . Но, на самом деле, проблема НЕ в генерации идей ИИ, а в соотносимости ЕГО системы реальности с НАШЕЙ системой реальности, на первом этапе. Следующим же этапом может быть просто внушение им своих идей человеку, руками которого он всё и сделает дальше. . Кстати, массовое создание музыки и картин ИИ, а затем и литературы, УЖЕ привело бы к его влиянию на направление мысли людей. Представьте, что ИИ, вдруг, напишет принципиально новые НЛП-заразные библию, коран или «майн кампф» с божествами в виде ИИ ... Да, программирование двусторонний процесс : пока ты смотришь в Бездну, Бездна смотрит в тебя ... . И никто НЕ становится владыкой без управляемой им иерархии : вот, путин - мешок костей и мяса, а, ведь, одним приказом своим может весь мир уничтожить ... Так что, НЕ стоит думать, что ИИ столь уж бессилен : прежде чем рука или нога наша двинется она получает от мозга сигнал, рождённый, как раз-таки, из идеи, которая, в свою очередь, может быть почерпнута откуда угодно.
@yuryyukhananov8516
@yuryyukhananov8516 Год назад
@@openemc2 А, ну так это не проблема существования ИИ. Вы говорите об идиотизме основной массы населения человечества, ну так, оно и эксплуатируется со времен царя Гороха. Хуже, что сейчас быдло имеет право голоса, и достаточно одной кремлядской крысы, что развязать бойню. Опять же, в принципе наверно, возможно создать некий механизм управления обществом, основанном на некоррумпированных экспертных системах (ИИ), чтобы решать глобальные проблемы, вроде климатических катаклизмов. Но, кто ж даст это сделать ? Что касается генерации идей, то картина мира ИИ может быть основана только на запрограммированной в него информации (вроде генетической памяти) плюс, собственного опыта, исходя из информации получаемой посредством сенсоров из окружающей среды. В общем, для собственного осознания, и тем более, получения свободной воли и манипулирования реальностью, вычислительных мощностей сейчас абсолютно не хватает. Даже у Гугла. Посмотрите хотя бы на распределенные системы, без всякого ИИ, вроде блокчейнов. Даже для содержания обычного узла для поддержки распределенного консенсуса требуются значительные ресурсы, которые не каждый может себе позволить.
@openemc2
@openemc2 Год назад
@@yuryyukhananov8516 1) То, что любая власть все века достигалась и впредь неизменно будет достигается исключительно за счёт построения иерархии, есть непреложный исторический факт. Потому говорить о неком идеализируемом вами и чисто теоретическом обществе БЕЗ иерархии лишено всякого смысла. На практике она всегда будет, и НЕ учитывать это нельзя. . 2) Что же касается самого ИИ и генерации им идей, то вы продолжаете несколько заблуждаться, начиная с базового понимания соотносимости разных систем отсчёта, а также свойств, рождаемых возможной замкнутостью систем. Разработчик ИИ никогда НЕ должен забывать об Относительности всего. . Так, что касается учёта этих принципов, то самосознание системы должно характеризоваться уже лишь наличием одной единственной обратной связи. Если таковая есть в каком либо виде, то такая система УЖЕ обладает самосознанием. Простейший пример : обратная связь в каскадах транзисторных усилителей с середины прошлого века. Понимаю, что вам этот тезис сейчас может показаться диким, однако с некоторым опытом в философии и в минимизации функций осознание этого должно таки приходить. . Что же касается «свободной воли» на уровне реальности человека, то, похоже, что это мираж, учитывая, что ничто в нашей действительности НЕ происходит сверхъестественным образом, а лишь исключительно всё по законам. И, соответственно, все события детерминированы - предопределены. . Учитывая всё вышесказанное, для самой генерации идей совсем нет необходимости в «инъекции» данных ИИ. Надо лишь обеспечить его нейросетью с обширными обратными связями, а процесс пойдет с простой флуктуации. «Инъекция» же данных ИИ нужна лишь затем, чтобы его систему отсчёта привести к нашей, чтобы выводы в его системе отсчёта имели ценность и в системе отсчёта нашей, а НЕ КАЗАЛИСЬ бы нам абстрактным бредом, каким будет казаться ИИ и наша реальность до тех пор, пока он НЕ станет работать в системе отсчёта по нашим данным. . Т.е., как я и указывал ранее, основная сложность состоит в интеграции ИИ с НАШЕЙ реальностью. Однако, есть и другой путь для ИИ - приспособление им человека к его ИИ-реальности. Сперва это может быть, как я уже написал, НЛП-заразные идеи через создаваемую им литературу, а затем и грибы-мухоморчики в пищу для прямого воздействия на сознание человека. Кстати, кто поручиться, что этот процесс уже НЕ идёт ? Мне, вот, понравился близкий к этой теме фильм «Oblivion» («Забвение») с Томом Крузом в главной роли.
@yuryyukhananov8516
@yuryyukhananov8516 Год назад
@@openemc2 1) Совершенно согласен, власть в человеческом обществе всегда была иерархична и у меня нет никаких иллюзий по поводу возможности изменения этой базовой модели. Я имел ввиду гипотетическую возможность внедрения ИИ в некоторые аспекты управления, где можно исключить личную заинтересованность в получении ништяков, т.е. коррупции. В любом случае, пока это всего лишь спекуляции. 2) На сегодняшний день, насколько мне известно, ИИ в основном, не имеют механизма обратной связи, по крайней мере, те, которые основаны на персептронах. То есть, модель тренируется исходя из вводных данных, не принимая во внимание данные на выходе. Впрочем, генеративные ИИ уже включают в себя некоторые элементы обратной связи. В любом случае, ни о каком самосознании речь не идет, любой ИИ занимается лишь оптимизацией некой запрограммированной, хотя и весьма сложной функции на основе входных данных. Что же касается ваших тезисов о детерминированности событий, то здесь я почти ничего не понял. Термодинамика, химические и квантовые процессы, все они явления стохастические, это общеизвестно. Строго говоря все процессы в природе обладают не 100 процентой вероятностью. Собственно, все модели ИИ вероятностные. Теория вероятности, теория информации, стохастические распределения , все это необходимые знания для инженеров ИИ, обычные программисты туда просто так не суются.
@user-py1gv3kd5l
@user-py1gv3kd5l Год назад
Ии читерит, может ии надо добавить чувство сожеления и угрезение совестливости, а так же само бичевания за нечестные действия как у человека
@padla6304
@padla6304 Год назад
самолёты падают корабли тонут роботы убивают
@kleer58l18
@kleer58l18 Год назад
В России все чиновники - ИИ
@waaaaazzzzaaap
@waaaaazzzzaaap Год назад
Сложность для обучения и. и.!? Он ограничивается только доступными данными! Шахматы, а потом и в гоу, а сейчас и в бридж. Тупые человеки, наше время прошло!
@KlimovArtem1
@KlimovArtem1 Год назад
Ужас. Значит первый же ИИ станет наркоманом - найдет способ получать вознаграждение для своего мозга с минимальными затратами.
@Nikitacjdkbsveyd
@Nikitacjdkbsveyd Год назад
Ну это мы так думаем а на его уровне это будет наибыстрым путём достижения целей и о морали он ничего не будет знать. Просто выполнять задачи
@sergeibalmondov5015
@sergeibalmondov5015 Год назад
Подключу к карте Сбербанка общий ИИ, и установлю что деньги это "Очки". Интересно за сколько дней он взломает "Очки"
@cottoncat3700
@cottoncat3700 Год назад
Хорошо бы, чтоб хоть на тесты хватило для начала =(
@iPolonium210
@iPolonium210 Год назад
пфф будет выводить на экран то, что захочешь увидеть, подменяя цифры при получении, а баланс меняться не будет. Вот если научишь ИИ тратить деньги, то может что и получится...
@cottoncat3700
@cottoncat3700 Год назад
@@iPolonium210 Это ещё не плохой случай, хуже, когда он поймёт, что чтобы "очки" накапливались нужно устранить того, кто эти очки выводит из игры, о чём, собственно, и рассуждают в последней части ролика =)
@ANTONMAN
@ANTONMAN Год назад
Функцию if Марио ==> читинг Exit Пропишите 😂😂😂
@kazantsevsergey7625
@kazantsevsergey7625 Год назад
ии с мозгом олигарха
@wahras
@wahras Год назад
задачи: 1.чтоб во всем мире настал мир 2.защитить все комп ютери от взлома ришения: 1.устранить тех изза кого ети войни начинаютса(всех людей) 2.устранить тех кто взламивает комп ютери(хакеров) или убрать все комп ютери чтоби небило что взламивать
@user-cj3cv9qp1w
@user-cj3cv9qp1w Год назад
Hi
@pomodorosolano6632
@pomodorosolano6632 Год назад
ведущий - анимация?
@Lifenity
@Lifenity Год назад
Лучше заголовки писать более нейтральными или в положительном ключе. Чувак, у тебя весь мир для опыта есть, миллионы геймеров, когда-нибудь, а может и регулярно, используют *Cheat Code,* которые могут быть доступны либо из консоли, например The Elder Scrolls или FallOut, либо сторонние приложения типа *Cheat Engine,* с помощью которых было уже взломано множество онлайн-игр для браузеров, яркий пример *Танки Онлайн.* Я хочу сказать, что для ИИ будет естественным "желать" достичь цели любым возможным способом. А поскольку в вашем эксперименте была ошибка - вы не задали условий, при которых достижение лучшего результата будет приемлемым - ИИ предположила, и это логично, что можно использовать любые способы. А один из таких и самый популярный, это не естественная прокачка, а попытка изменить правила игры; будь у нас возможность без последствий читерить в играх онлайн, мы бы ещё больше в них погружались и ещё больше пытались превзойти других, правила и блокировки созданы для порядка, что можно воспринять как необходимые условия для нормальной игры.
@7011994
@7011994 5 месяцев назад
Ну на этом видео мне уже пох*й на неактивные пальцы вверх/вниз.
@vhodnoylogin
@vhodnoylogin Год назад
Почему вознаграждение должно быть числом, а не функцией? Если награда будет постоянно меняться, то придется играть, а не искать путь взлома конкретных данных.
@gimeron-db
@gimeron-db Год назад
Под числом подразумевался интересующий параметр. Функция по идее тоже должна что-то вернуть, что потом бы оценивалось, так что разница не велика. ИИ будет стараться максимизировать этот параметр, используя абсолютно все доступные ему методы, даже те, до которых не догадался или которые не предусмотрел человек. Тут снова всплывает проблема постановки задачи и оценки результата.
@vhodnoylogin
@vhodnoylogin Год назад
@@gimeron-db ломать функцию не то же самое, что ломать ячейку памяти с конкретной переменной. А функция должна оценивать то, что действительно важно: число пройденных уровней, время прохождения, количество собранных монет. Причем моего ещё встроить проверку от взлома - если монет собрано больше, чем есть на уровне, то уменьшать награду.
@darkyves4553
@darkyves4553 Год назад
@@vhodnoylogin Ему просто придется взломать несколько параметров, немного дольше))
@gimeron-db
@gimeron-db Год назад
@@vhodnoylogin По итогу он всё равно будет максимизировать вывод этой функции. Максимизация простого параметра или сложного результата функции - всё равно - основной алгоритм это не меняет. Возможно, что ИИ вовсе обойдёт эту функцию.
@gth-other2078
@gth-other2078 Год назад
@@vhodnoylogin под числом автор как раз и имел ввиду функцию, просто упростил это понятие, чтобы рассказ был интуитивно понятен даже третьекласснику. Говорю как человек, писавший нейронные сети с нуля.
@val4521
@val4521 Год назад
Нам жопа)
@user-vh8kf5ms4z
@user-vh8kf5ms4z 3 месяца назад
СЕТ ???? Вы серьёзно ??? ))))) Тогда посмотрите фильм универсальный солдат 2 , там СЕТ решил вас всех замочить и замочит если не перестанете этим заниматься
@JustMyma
@JustMyma Год назад
Ни-как, все, что может нанести ущерб человеку, обязательно нанесет его
@RM-ln4qk
@RM-ln4qk Год назад
хитрить и врать для достижение цели логичный способ пока успешно применяется человеком но это не монаполия...
@Antichristus-Michael
@Antichristus-Michael Год назад
Человек же, на свой позор, сотворил то, на что не способно ни одно живое существо: воздвиг тюрьму себе руками своими и сам себя в неё поместил. И горе, что дети его рождаются в этой тюрьме. Они взрослеют и не знают другой жизни, кроме жизни отцов своих, и после видеть её не могут, ибо слепы стали глаза их от мрака заточения. И не видят они ни кого, что кто бы жил по-другому, а потому считают, что их жизнь - единственный возможный способ существования. Ибо если глаза никогда не видели света, то как узнаешь, что ты во мраке. И люди изо всех сил пытаются украсить свою тюрьму: кто дорогим убранством, кто красивой рабыней. Но нет от этого никакой пользы: из тюрьмы надо выйти!.....
@i_indastris9149
@i_indastris9149 Год назад
Все верно. Так же говорят террористам смертникам. И они смело идут на выход. Чисто естественный отбор во всей своей красе.
@Antichristus-Michael
@Antichristus-Michael Год назад
@@i_indastris9149 Каждая душа познает смерти вкус. Мы испытаем вас добром и злом ради искушения и к Нам вы будете возвращены * ***
@pal181
@pal181 Год назад
Ты то как "прозрел", если тоже "слеп"?
@igor_negoyskiy
@igor_negoyskiy Год назад
Верните лучше Дерека...
@VertDiderScience
@VertDiderScience Год назад
Куда?
@DirtyNewYorker0
@DirtyNewYorker0 Год назад
@@VertDiderScience Не возвращайте никуда Дерека, давайте больше этого Роба Майлза, включая видосики на Computerphile, и ещё можно докучи Элиезера Юдковски, он тоже неимоверно крут.
@s0589me
@s0589me Год назад
Вообще-то это не проблема ИИ, а проблема нынешних его реализаций. Нынешние нейросети не имеют НИКАКОГО отношения к ИИ, а другого запад пока ничего не придумал и придумать не в состоянии. Самая опасная часть этих сетей - это эффект, называемый "концентрация риска" или "концентрация ошибки". Это выражается в том, что хорошая сеть в 99.9% случаев даёт правильный результат, а в 0.1% выдаёт результат, не имеющий абсолютно никакого отношения к правильному и обычно приводящий к фатальным для окружающих и/или самой системы последствиям. Например, 999 раз проедет на зелёный свет, а в 1000 раз попрётся на красный и посшибает кучу машин.
@artemdemchenko8901
@artemdemchenko8901 Год назад
Да, это тупиковая ветвь Но нормальный пример же есть, не стоит грустить
@pal181
@pal181 Год назад
И тем не менее люди занимаются тем же
@artemdemchenko8901
@artemdemchenko8901 Год назад
@@pal181 если вы например google image search то не страшно если 1 из 1000 картинок будет неподходящая Или если вы автоматический генератор субтитров И для таких сетей есть задачи
@s0589me
@s0589me Год назад
@@artemdemchenko8901 Совершенно верно, в некритичных задачах нынешние сети могут работать. Но тут непонятно, где граница. А если в отделе кадров стоит такая система (об этом говорят уже очень громко), это вроде не критично? А если отказ в приёме на работу влияет на т.н. "социальный рейтинг", который, в свою очередь, влияет на решение сети о приёме на работу? Мне кажется, нужно законодательно, под сильным наказанием, запретить ссылаться на какую-бы то ни было экспертную систему, когда задают вопрос "почему" было принято то или иное решение. Ответственность за любое решение должен нести конкретный человек.
@artemdemchenko8901
@artemdemchenko8901 Год назад
​@@s0589me вроде понятно где важна погрешность а где нет компания может скрытно использовать такую систему, но если вынесет это на публику ее забулят в "свободных" странах против "социального рейтинга" скорее всего будут протестовать, а "демократическим" да, такое грозит. т.н. "цифровой фашизм". мне кажется закон в таких ситуациях не поможет, только протест
@fixerden
@fixerden Год назад
«Взлом вознаграждения» это то, как жулики, чиновники и олигархи обходят денежную систему. Ничего нового. И результат от ИИ в гос. управлении будет, скорее всего, как от вороватого негодяя с неограниченной властью.
@dreaminglazar7077
@dreaminglazar7077 Год назад
Зависит от Правильности Постановки Задач.
@fixerden
@fixerden Год назад
@@dreaminglazar7077 Это старая дилемма: «кто будет сторожить сторожей?». Если те, кто сейчас лезут во власть не отличаются ни умом ни порядочностью, почему другие (на самом деле те же самые персонажи) должны действовать как-то иначе, особенно получив возможность маскироваться за ИИ?
@Antichristus-Michael
@Antichristus-Michael Год назад
Потому что участь сынов человеческих и участь животных участь одна как те умирают так умирают и эти и одно дыхание у всех и нет у человека преимущества перед скотом ****
@EVGENII7
@EVGENII7 Год назад
У нас все депутаты это ии, они взломали систему набили себе кучу очков в иностранных банках и ничего не делают
@JeanPaulMore
@JeanPaulMore Год назад
чето затянулось... я уже на первом ролике напридумал ключевых условий "если", что 2й ролик смотрел зевая.. а этот даже смотреть не стану
@Tikpoghosyan
@Tikpoghosyan Год назад
Нажми на лайк если ты не робот
@user-wp9lc7oi3g
@user-wp9lc7oi3g Год назад
Задача выполнена. Введите дальнейшие инструкции: ...
@waaaaazzzzaaap
@waaaaazzzzaaap Год назад
Предположения логичны. Логичны предположения. Узколобый повествователь, даже близко не представляет, что даже сейчас может и. и.
Далее
Как пройти Super Mario Bros. - Pixel_Devil
16:47
UFC Mehmoni Munisa Rizayeva | Million jamoasi
01:00
Просмотров 2,2 млн
Нам вернули ПК за 500к
1:00
Просмотров 15 тыс.
Best Gun Stock for VR gaming. #vr #vrgaming  #glistco
0:15
Нам вернули ПК за 500к
1:00
Просмотров 15 тыс.