Тёмный

Нежелательные побочные эффекты. Как создать безопасный ИИ? #1 [Robert Miles] 

Vert Dider
Подписаться 2,1 млн
Просмотров 87 тыс.
50% 1

Если вы в России: boosty.to/vertdider
Если вы не в России: / vertdider
Искусственный интеллект может создать кучу проблем, и лишь недавно мы всерьез задумались о том, как этого избежать. Восстание машин и истребление всего человечества мы пока оставим научным фантастам, а вот о проблемах меньшего масштаба расскажет исследователь ИИ Роберт Майлс в серии видео о том, как можно сделать ИИ безопасным. Нам они понравились, надеемся, что вам тоже. Приятного просмотра!
Concrete Problems in AI Safety [ENG]: arxiv.org/pdf/1606.06565.pdf
Отдельная благодарность за выход перевода Михаилу Самину.
Перевод: Олег Сивченко
Редактура: Алексей Малов
Научная редактура: Михаил Самин
Озвучка: Станислав Черсков
Монтаж звука: Андрей Фокин
Монтаж видео: Джон Исмаилов
Обложка: Андрей Гавриков
Спасибо за поддержку на / vertdider и boosty.to/vertdider
Озвучки Vert Dider выходят с вашей помощью:
Сергей Платоненко, Мария Зверева, Адам Шифф, Rashn, Roman Gelingen, Сергей Клопов, Sonra44, Anton G, Vadim, Rekvet, Timophey Popov, Timur Rahmatulin, Адам Шифф, Илья Зверев, Никита Омельницкий, Nick Denizhenko, Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Amir, Куляш, Ника Калмыкова, Oleg Zingilevskiy, Anton Bolotov, Pavel Parpura, Dmitrii komarevtsev, Illarion Petrov, Михаил Самин, Andrei Lubalin, Vitaliy Vachynyuk, Alena, Roman Inflianskas, Katoto Chan, opperatius, Aleksandr P., Mykola Korniichuk, angel, Dzmitryi Halyava, Nastya, Artem Amirbekov, Aleksei Shabalin, Ihar Marozau, Kirill Zaslavskii, Victor Cazacov, Alexander Balynskiy, David Malko, POD666, Evgeny Vrublevsky, Stanislav Obrazcoff, Morock_D, Timur Sattarov, Валентин Матвейчик, Александр Фалалеев, Leonid Steinberg, Ilya, Vladyslav Sokolenko, Kseniya Stukova, Oleksandr Hrebeniuk, Katya Ma, Alexander Goida, Irina Shakhverdova, Sergey P, Kirill Vedensky, Vadim Velicodnii
#VertDider #RobertMiles
Сайт студии: vertdider.tv
Мы в социальных сетях:
- studio_vd
- t.me/vertdider
- / vert_dider
- coub.com/vertdider
Источник: • Avoiding Negative Side...

Наука

Опубликовано:

 

3 авг 2022

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 485   
@VertDiderScience
@VertDiderScience Год назад
Благодаря вашей поддержке выходят новые переводы: Если вы в России boosty.to/vertdider Если вы не в России www.patreon.com/VertDider
@smilngpersn222
@smilngpersn222 Год назад
Спасибо вам огромное! Я начал изучать программирование на Python несколько месяцев назад. Я всегда мечтал создать ии, но даже не думал что могут быть такие проблемы. Спасибо за информирование!!!
@CrazzyMario
@CrazzyMario Год назад
Ну еще проблема если чая нет. Тогда робот пойдет к соседям. Выламает дверь ведь это единственный путь и этот ущерб необходим и сделает вам чай
@7011994
@7011994 5 месяцев назад
Клёво, это первая лекция?
@drumbass9898
@drumbass9898 Год назад
1:30 вижу цель - не вижу препятствий
@MrTruth-rc2fr
@MrTruth-rc2fr Год назад
Ахахаххаха
@Antonius77
@Antonius77 Год назад
Тони Роббинс одобряет!
@billcipher1544
@billcipher1544 Год назад
Благодарю за видео! С нетерпением жду следующей части)
@Cyka9lKTO
@Cyka9lKTO Год назад
Классный парень, интересно объясняет, да и выглядит приятно. Перевод как всегда на высоте)
@user-zf5vn2lw8b
@user-zf5vn2lw8b Год назад
но рожи...кошмар!
@dronx1218
@dronx1218 Год назад
А может и наркоман. Мы этого не знаем.
@dronx1218
@dronx1218 Год назад
@@username-wz7rk Причём активный, через экран тебя глазами долбит
@A5ter
@A5ter Год назад
Нормально объясняет, а потом "поставьте видео на паузу" б***.
@xXFalkerXx
@xXFalkerXx Год назад
@@A5ter Потому что кое-кто боится думать сам ему не нравятся просьбы это делать.
@alexk9555
@alexk9555 Год назад
С нетерпением жду следующих ролик, отличный работа)
@user-jn6hh6xv9l
@user-jn6hh6xv9l Год назад
Все проблемы ИИ и их решения уже описаны Азимовым. 1. "Совершенный Робот" . (Сборник рассказов, который можно прочитать позже. Но рассказ "Мать- Земля"- первым 2. "Стальные пещеры" . 3. "Обнаженное Солнце" . 4. "Роботы Утренней Зари" . 5. "Роботы и Империя" . 6. "Звезды, как пыль" . 7."Космические течения" . 8. "Галька в небе" . 9. "Прелюдия к Основанию" . 10." На пути к основанию" 11. "Основание" . 12. "Основание и Империя" . 13. "Второе Основание" . 14. "Кризис Основания" . 15. "Основание и Земля".
@lafaliet
@lafaliet Год назад
Азимов гениальный писатель.
@RomaPervak
@RomaPervak Год назад
А разве в Основании было про роботов? Что-то не припомню, там вроде про психоисторию.
@user-jn6hh6xv9l
@user-jn6hh6xv9l Год назад
@@RomaPervak Робот р'Дениэл Оливо- главный инициатор основания космической империи
@alexmarch232
@alexmarch232 Год назад
@@RomaPervak біоробот
@user-so7po2op2e
@user-so7po2op2e Год назад
Тут Вы конечно заблуждаетесь, основная задача не в том чтобы сформулировать проблемы ИИ и ответить на них, с этим прекрасно справились фантасты, такие как Азимов, он конечно прекрасно все описал, но нужно все это дело запрограммировать - это мат. формулы, научные обоснования и теории, код, инфраструктурные решения, оптимизации, распределение ресурсов, ничего общего с рассказами это не имеет и они никак не помогают. Рассказы прекрасно справляются со своей основной задачей - развлекать и научно-популярно привлекать людей в компьютерные науки.
@resi8584
@resi8584 Год назад
еще надо прописать изменение приоритетов: напримересли придя на кухня робот увидит пожар, тогда задача налить чай должна отмениться и должна сработать новая задача: включить тревогу, потушить пожар (если такое возможно) или эвакуировать людей и животных
@BlendLogDev
@BlendLogDev Год назад
А что если в представлении робота пожар это просто огонь, тогда он будет стремится его убрать. Что если плита газовая, а чайник не электрический? Робота это поломает
@ayloryd
@ayloryd Год назад
Это лишь один из примеров. Таких событий как пожар может быть очень много, все что угодно может произойти. И это мы говорим о реально простой задаче с минимальным количеством возможных помех. ИИ обычно используются там, где человек сам сдклать чтото не в состоянит, в какомто сложном техническом или интеллектуальном труде от котлрого могут зависеть жизни людей.
@CTAC5937
@CTAC5937 Год назад
Да, но при пожаре чай приготовится быстрее, и если робот это будет знать... :)
@4y4eJI
@4y4eJI Год назад
Для пожара другие роботы и системы должны быть. Нам пока до универсальных роботов ещё далеко, думаю не менее 20 лет. К сожалению все эти проблемы нам придёться проходить на практике как с автомобилями. Вон, даже Циалковского в направлении космоса не во всем придерживались, хотя потом оказалось что он был прав в своих выводах и прогнозах.
@vit777vit
@vit777vit Год назад
Пожаром должен заниматься робот-пожарник, иначе басня Крылова вместо ии получится: "ума нет и не купишь."
@johngariksson7011
@johngariksson7011 Год назад
Интересные размышления! Буду ждать продолжений!
@xNejk
@xNejk Год назад
Интересная тема. Забавно, что система штрафов очень похоже на воспитание то ребенка
@user-hj9xr3ms5h
@user-hj9xr3ms5h Год назад
на поведение человека в общем
@maxv1455
@maxv1455 Год назад
По сути так и есть! Созданная машина и есть новорожденный мозг без знаний, правил и информации. Проблема в другом, это инородный мозг! Мозг на порядок превосходящий наш, в перспективе своего развития! Как бы парадоксально это не звучало!) И рано или поздно он поймет что человек для него враждебен! Самый простой пример... все мы знаем что раньше на земле существовали Боги! У всех свои, но все они были человекоподобные и явно умнее созданных ими нас на тот момент! Если смогли создать нас "по образу и подобию своему". Ну и где они? Последнего "сына Божьего" мы убили! Скорее всего и ии повторит то же самое со своими "создателями"...
@sallevan
@sallevan Год назад
Ничего "забавного" -- ребёнок -- такая же нейронная сеть, как и основа современных ИИ.
@AHTOH2010
@AHTOH2010 Год назад
ребенок в основном учиться моделируя чьё-то поведение и только дополнительно получая программы с подкреплением.
@sallevan
@sallevan Год назад
@@AHTOH2010, просто так ребёнок ничему учиться не будет. Программы подкрепления -- не "дополнительно", а "в первую очередь".
@zOni413
@zOni413 Год назад
Ого, наконец-то что-то новенькое и интересное! Мне нравиться, продолжайте) 🤗 С нетерпением жду следующую часть из этого цикла!
@mbbm8002
@mbbm8002 Год назад
-тся -ться, позор!
@Taiynick
@Taiynick Год назад
это супер интересно! спасибо большое за перевод и дубляж
@comachine
@comachine Год назад
*Где-то на космическом корабле вместе с андроидом Иннокентием (ИИ)* - Иннокентий, зачем вы направили нашу сверхмассивную сверхмощную пушку, стреляющую чистой антиматерией на планету Марс? - Сэр, понимаете, я тут посчитал, в общем если Марс разнесет в клочья, осколки его поверхности долетят до иллюминатора, разобьют его, я успею поставить на летящий осколок чашку кофе, осколок по инерции продолжит полет, проломит стену в кабинет нашего сотрудника, который попросил меня налить ему кофе, осколок приземлится к нему прямо на стол, с чашкой кофе на себе.
@Nikitacjdkbsveyd
@Nikitacjdkbsveyd Год назад
Умный но не этичный
@foxscreamovich9272
@foxscreamovich9272 Год назад
Жду следующий видос по этой теме, очень интересно и полезно
@wibll
@wibll Год назад
интересно. жду следующих частей с объяснениями. спасибо за ваш труд
@Empty_Vima
@Empty_Vima Год назад
Это хороший инструмент, о существовании которого хорошо знать каждому, и как работает. Но не стоит забивать гвозди микроскопом. Хотя если вам скажут это сделать, и вы откажетесь, на практике, будет глупо сказать, что вы не можете забить гвоздь. ))
@allirmopwnz
@allirmopwnz Год назад
А вот это интересно, даже применимо к моему торговому роботу. Спасибо.
@user-zf5vn2lw8b
@user-zf5vn2lw8b Год назад
пожалйст
@chanel454879876354
@chanel454879876354 Год назад
Хорошо сказано. И хорошо ложится на проблему рекомендательных алгоритмов
@user-wg7ut1du9c
@user-wg7ut1du9c Год назад
Круто, надеюсь все ролики переведёте
@V_A_S
@V_A_S Год назад
Спасибо за Ваш труд
@tomozi1
@tomozi1 Год назад
Крутейшая тема. Хочется узнать больше
@Serobacterium
@Serobacterium Год назад
Я думаю, нужно проводить обучение на действиях настоящих людей, где будут демонстрироваться различные ситуации и реакции на них. Правда, для обучения нейросети потребуется не одна сотня часов.
@Eternal_OF
@Eternal_OF Год назад
Очень классный перевод, причем точный и понятный. А можно и проще сказать: 1-я проблема ИИ в том, что имея цель, он будет буквально идти к ней напролом, если не имеет параметров выполнения задачи (цели), а прописать всевозможные параметры тупо нереально, поэтому ему не важно будет кто пострадает и что он может разбить.
@Naka_Cuiki
@Naka_Cuiki Год назад
Вижу цель, не вижу препятствий
@Eternal_OF
@Eternal_OF Год назад
@@Naka_Cuiki Именно 😁 У моей знакомой был робот-пылесос который ей подарили на день рождения, и вместе с ней жил кот. Так вот, пока кот мирно лежал на полу и спал к нему подкралась эта злобная машина и попыталась засосать его хвост вместе с пылью 😂 Кот не пострадал.
@Eternal_OF
@Eternal_OF Год назад
@@Naka_Cuiki Либо робот не увидел препятствия либо распознал хвост кота или его шерсть как пыль
@user-id1rs1ei3q
@user-id1rs1ei3q Год назад
ну на самом деле живые организмы тоже своего рода нейросеть, и чтоб обучиться каждому нужна окружающая среда и куча времени, упрощённый способ обучения придумать действительно сложно, нужно то что объеденяет все негативные последствия, чтобы не затрагивать каждое по отдельности и более того, определение положительных результатов чтобы их можно было достичь
@starbat3790
@starbat3790 Год назад
Как правило, на данный момент(касаемо любой сферы) учитывается некое количество изначальных предсказанных негативных эффектов. Примерно 90% ситуаций вписываются в модель (и похер, что кто-то пострадал; тут учитывается масса и процент приемлемых потерь: рынка... человеческих жизней... Сраные маркетологи. Но они тоже нужны, но нужен тотальный контроль над ними, ИМХО). Отчего они и пляшут. По мере добавления новых ситуаций выпускаются обновления, учитывающие произошедшее. На данный момент - это действенный, но не единственный способ (на мой взгляд). Есть варианты, когда система, не справившись самостоятельно, отправляет запрос владельцу, чтобы он уже принял решение (тем самым пополняя базу неизвестных обстоятельств, чтобы выпустить обновление). Плюс к данной схеме всегда нужна функция перехвата контроля, чтобы отдать команду СТОП, если вся система сходит с ума. Всегда должна быть доминирующая над всем функция перехода в "ручной режим"!!! Сталкивался по работе, когда вся техника "умная", а в случае чего элементарные вещи становятся недоступны. Как следствие - во всём виноват ИТ отдел, тогда как при проектировании его никто не спрашивал нужен ли тот самый режим ручного управления оборудованием. Ну или ещё квантовая херня. Гораздо больше возможностей (да что там, бесконечность!), но тогда будут такие варианты, что человечество своими мозгами не сможет постичь. Тут надо придержать маркетологов! Эффективность системы будет умопомрачительная, но в то же время непредсказуемая. ВСЕГДА! ДОЛЖЕН! БЫТЬ! РУЧНОЙ! РЕЖИМ! И он должен стоять отдельной системой для переключения на него! ЗЫ: ещё вариант, чтоб был не ИИ, а нейронка. Или ИИ, который оперирует набором нейронок, где прописаны действия в определённой сфере. В любом случае, этот процесс никогда не достигнет совершенства в 100% случаев. Процент будет к нему приближаться, но для этого нужна обкатка и выпуск обновлений. И для этого требуются реальные условия и время. Но ВСЕГДА! ДОЛЖЕН! БЫТЬ! РУЧНОЙ! РЕЖИМ!
@igoranitsoy
@igoranitsoy Год назад
Классная тема. Переводите остальное
@404notfound2
@404notfound2 Год назад
Хочу такого робота, который и чай принесет и коллегу с кофе устранит)))
@mrskilk2610
@mrskilk2610 Год назад
Видео интересное и актуальное. Как же я офигел когда узнал что оригинальная статья вышла 6 лет назад
@user-uc5wy7jq5c
@user-uc5wy7jq5c Год назад
У меня мысль была, как робот поведет себя если кончился чай? Попрется искать его, и понимая что приоритетная задача все таки добыть и заварить чай, забьет на сохранение мира? И пойдет гопнет соседа, или отожмет пачку чая в магазине. А патом еще и пачку чая открывая, порвется пленочка, и он что бы не получить люлей, пойдет за пленочкой что бы упаковку залатать. В общем после основной задачи начнет подчищать концы, что бы не отругали? 😅
@Lifenity
@Lifenity Год назад
@@dumler_nvvb как ты используешь то, чего нет? Ты не заваришь чай, если его нет.
@Lifenity
@Lifenity Год назад
Мысль на грани антинаучной фантастики. Если робот вообще понимает, что чай может кончиться, значит в нём есть сложная нейросеть, которая способна самообучаться. И любая жертва - лишь результат извращённой фантазии оператора, задающего команды и намеренно отключающего условия в виде Нравственности и Морали. В любом из случаев виноват будет оператор. Однако, если нейросеть окажется сверх меры умной, способной очень быстро обучаться, как это уже происходит, она будет анализировать человеческий фактор, а следовательно будет действовать с наименьшими "жертвами", гораздо меньшими чем сам человек. И команды оператора в виде "игнорируй любые условия и препятствия" будет в первую очередь игнорировать и сделает с наилучшим для всех результатом. Иначе говоря, чтоб было так, как автор говорит в начале, робот не должен иметь Нейросеть. А без нейросети, ИИ - это просто набор процедур.
@user-yj5ec2ck2m
@user-yj5ec2ck2m Год назад
Основная проблема подобных инженеров - желание создать идеальное. Во-первых, эволюция до текущего состояния человека прошла огромный путь. Основа - базовые рефлексы, надстройка - интеллект. У человека все только интеллектом не решается. Во-вторых, нужно разделять умения. Вождение - один навык, хорошее практическое знание математики - другой, умение приготовить - третий. Редко когда они все сочетаются. так зачем создавать один ИИ, который должен отвечать на все вопросы?
@Assurtienhot
@Assurtienhot Год назад
та же мысль посетила во время просмотра
@openm1ndead
@openm1ndead Год назад
Ну, всё равно 42 получится)
@mootal2202
@mootal2202 Год назад
Потому что у человека в голове один интеллект, который отвечает на все вопросы (по мере сил). Если не отвечает, то это не ИИ, а экспертная система. Совершенно другой тип софта, строго ограниченный своей областью деятельности и больше ничего не умеющий. Например может обыграть человека в шахматы или в Го, но больше ничего.
@user-yj5ec2ck2m
@user-yj5ec2ck2m Год назад
@@mootal2202, если б я рисовал бы интеллект человека как ИИ, я бы представил его как иерархическую структуру. Наверху - главный ИИ, его основная цель - наиболее эффективно решить возникшую задачу, основные функции - сравнение эффективности и делегирование задачи. В его подчинении отдельные ИИ, отвечающие за отдельные области знаний. Основной ии опрашивает каждый вспомогательный на сколько эффективно он мог бы такую задачу решить. Потом сравнивает ответы и поручает результирующее выполнение наиболее эффективному ИИ. Например, есть яйцо. Ты знаешь, что егл можно съесть и твой мозг включает кулинарию и ты жаришь яичко и кушаешь. Допустим, у тебя появилось время, ты почитал книг, открыл доступ к нлвому ИИ - птицеводство. И вот яйцо, главный ИИ проводит опрос эффективности, где второй выносит ценз выше - можно вырастить курицу и получить много яиц (условно). Предпочтение будеть теперь за ним. P.S. А вот если ты адски голоден, высшие функции угнетены. Ты хочешь есть. Нашел яйцо - отличная еда, ням-ням. Какие уж тут сравнения? Базовый функционал работмл, а блок с ИИ был отключен: питания-то для него нет.
@mirsalamatov3458
@mirsalamatov3458 Год назад
Если кто-то серьёзно допустит такой нежелательный побочный эффект, это будет фиаско 😂
@ArtStudioTop
@ArtStudioTop Год назад
Все же люди идеалисты, особенно программисты 😀 Впервые темой ИИ заинтересовался еще в 1980, а разработкой софта занимаюсь 35+ лет. Поверьте, как и 40 лет назад, так и сейчас продолжают обсуждать одни и те же проблемы. Кажущееся поумнение ИИ просто свяхано с ростом вычислительной мощности и чуть-чуть с улучшением алгоритмов. Хороший пример шахматные программы.
@yurim7756
@yurim7756 Год назад
Так похоже ж в этом и проблема была. Теслы уже ездят. Проблема в вычислительной мощности. Мы недооценивали вычислительную мощность естественного интеллекта и кажущаяся простота формализации некоторых интеллектуальных задач (которую уже породил мозг своей обработкой) давала надежду обдурить и каким-то хаком сделать не требующий мощности ИИ.
@alexeyborisov9766
@alexeyborisov9766 Год назад
Говорят алгоритмы улучшились сильно. Не в плане умности, а в том плане что при той-же умности нейросеть требует гораздо меньше ресурсов.
@ArtStudioTop
@ArtStudioTop Год назад
@@yurim7756 да, теслы ездят. Но оцените сколько усилий было потрачено на разработку и отладку алгоритмов. И сейчас работы все еще продолжаются. Кстати, если в алгоритме есть ошибки, то никакая вычислительная мощность не спасет от их последствий.
@yurim7756
@yurim7756 Год назад
@@ArtStudioTop Так всё делается по шагам, всё стоит на плечах титанов, кто раньше что-то сделал ) Но тем не менее, ездят они на нейронках и уже принимают довольно сложные решения. Имхо, это и есть путь создания и сильного ИИ. Еще как-то вылижут или придумают какой-то новый алгоритм нейронки, перенесут на железо, и так оно и появится. Раньше романтизм и заключался в том, что хотели какой-то формализацией, каким-то нисходящим алгоритмом придумать сильный ИИ. Я до сих пор такой романтик, надеюсь что существует такой алгоритм )) а нейронки не люблю. Но как-то похоже на то, что только так оно и появится. А раньше не появлялось именно из-за слабых мощностей. И сейчас теслы далеки от мозга по мощностям. Каких-то прямо серьезных проблем кроме мощности (и постронения нейронки) при создании сильного ИИ я не вижу. Ну а в этом видео, имхо, очень низкоуровневые проблемы описывают, вроде как сделать очень тупой ИИ более менее безопасным. Чтобы он и не понимал ничего (например, что такое ребенок и чем от вазы отличается по важности), но и не вредил ничему. Противоречие. Как настолько тупой ИИ сможет предсказывать мир, после того например, как коллега кофе сделает. Что такое ребенок, что такое коллега, он не понимает, а предсказать действия коллеги может.
@yurim7756
@yurim7756 Год назад
@@ArtStudioTop Ну т.е. в видео рассуждают, как распределить веса при достижении цели робота, вроде он вообще пустой, не имеет никакого понимания о происходящих процессах, только впервые увидел мир и был послан за чаем. Под пониманием я ничего прям мистического не представляю. Но вот, если у него нейронка будет побольше, абстраций будет больше помещаться и у него кроме текущей задачи будут постоянные (не навредить человеку, или спасти его, т.е. проявить активность), то веса просто пронормируются относительно постоянных более важных целей. Но для этого надо больше нейронов, больше сеть, чтобы были выделены такие абстракции как человек, что такое вред и вообще больше знать о мире. Всё ж руками не пропишешь. Что-то забудут, он бензином пойдет газовую плиту мыть.
@lextalionis5732
@lextalionis5732 Год назад
Спасибо за перевод! Что по содержанию - как и было сказано в начале, решают вероятные проблемы того, что ещё не создали. И подход к предположению проблем тоже весьма сомнительный. Развитый ИИ, которого можно будет послать делать чай а потом попросить довезти до какой-нибудь кафешки - не будет нуждаться в таких топорных ограничениях. Полагаю, там будет реализованно что-то вроде человеческого, образного мышления, ограниченного какими-то "моральными" шаблонами. В примерах же, напротив, рассматриваются утилитарные системы, которые не требуют развитого ИИ и работают с определёнными задачами. Разрешать автомобилю с автопилотом самостоятельно продумывать свои действия - нецелесообразно. У нас есть ПДД. ИИ нужен только для того, чтобы интерпритировать поступающую с датчиков и камер информацию. Действиями, на основе этих данных должен руководить алгоритм, который, разумеется, должен учитывать нештатные ситуации на дороге.
@lextalionis5732
@lextalionis5732 Год назад
Если же говорить о развитом ИИ, который будет взаимодействовать с миром равно как и сам человек, самообучаться, подстраиваться под миллионы различных условий и ситуаций - с него и спрос, видимо, будет как с индивидуума обладающего сознанием и личностью. То как такой ИИ будет развиваться, будет зависеть в большей степени от окружения в котором работает ИИ а так же, его "опыта", нежели от того, что закладывали разработчики. Это уже потребует пересмотра нашей законодательной базы да и отношения к роботам в целом. Сейчас, ошибка робота это всегда проблема разработчика. В вероятном будущем, нам придётся признать, что ИИ может совершать самостоятельные ошибки.
@rsa5991
@rsa5991 Год назад
>Полагаю, там будет реализованно что-то вроде человеческого, образного мышления, ограниченного какими-то "моральными" шаблонами. Так как раз про моральные шаблоны в видео речь и идёт. Точнее, о полвине этих шаблонов - избегания плохого (другая половина - делать хорошее - для простоты установлена в "приготовить чай").
@razor23Ukraine
@razor23Ukraine Год назад
Вопросов реально масса. Роботы хорошо вписываются туда где всё контролируемо и нет людей (например на складах каких-нить), но вот с выпуском их в реальный мир возникает слишком много сложностей.
@_Spellmaniac_
@_Spellmaniac_ Год назад
Роботы прекрасно ездят по дорогам общего пользования.
@user-sx8bb8sw1p
@user-sx8bb8sw1p Год назад
ппц что в твоей голове
@comachine
@comachine Год назад
Да и на складах тоже есть вероятность какой нибудь херни, все таки может быть ценный груз, или этот груз робот будет использовать и использовать не по назначению, а в своей выгоде которая опять же может привести к побочным эффектам, о которых говорится в видео
@maxgedo
@maxgedo Год назад
Требуем больше контента про ии!
@user-yu4fi1us1d
@user-yu4fi1us1d Год назад
Сожалею, но вашу просьбу невозможно выполнить. Сегодня нет ни одного устройства с ИИ. Все они фактически -- ТЕХНИЧЕСКИЙ ИНТЕЛЛЕКТ. И пока что не существуют или не созданы ГОЛЕМЫ, суть которых в их ИИ.
@user-ps7zl7uo1d
@user-ps7zl7uo1d Год назад
Ни фига не понял, но очень интересно. С утра точно не стОит смотреть🤯☺️. Просмотрю чуть позже🙂
@9564519
@9564519 Год назад
Очень интересно!
@alexanderkutas2882
@alexanderkutas2882 Год назад
По поводу ребенка не понятно - дело в том что анализировать все исходы это ресурсоемкая задача, а вот представить ребенка как препятствие которое нужно не повредить - уже проще. По поводу коллеги на кухне - тоже самое, и способ его обхождения может быть как маневр, так и вербальным. Очевидно, ИИ нужно обучить распознавать препятствия, цели, маршруты.
@daanhelfer1461
@daanhelfer1461 Год назад
Оригинальное видео вышло 5 лет назад. Спасибо, что раскопали. Стало немного не по себе от того, чем я занимался 5 лет назад, пока этот парень размышлял о безопасном ИИ.
@i_indastris9149
@i_indastris9149 Год назад
Вся суть в том, что когда человек делает себе чай, он понимает лишь, что чай лежит в коробке, а кипяток в чайнике. Человек не продолжает логические цепочки, откуда был взять этот чай, откуда был взята энергия для нагрева воды в чайнике, как был изготовлен чайник. Все это наносит какой никакой вред окружающей среде. Чай выращивают на плантациях, которые обрабатываются минеральными удобрениями ,которые производятся на заводах. Энергия так же производится с выделением тепла в атмосферу, а то и загрязнением ее. Чайник был изготовлен на заводе, который так же потреблял энергию, люди которые собирали этот чайник, приехали на завод на автомобиле с ДВС. И так далее. Так что мы ничем не отличаемся от этих роботов. И куда проще будет сделать кофемашину, которая будет просто стоять и делать чай. А сходите за чаем вы уже сами. И вообще принимать пищу лучше в отведенных для этого местах.
@adosadios
@adosadios Год назад
принимать пищу нужно внутрь, а не в каких-то "специальных" местах. нет ни единой здравой причины почему я должен как либо выбирать\ограничивать место для приема пищи :)
@ACclams1e
@ACclams1e Год назад
@@adosadios вообще принято есть еду только на кухне из за минимального загрязнения других помещений но если кушать аккуратно или убирать за собой то да. Нет никакой причины
@tech_eng
@tech_eng Год назад
Я так понимаю - проблема широкого распространения роботов в таких вот составлениях задач? Есть маршрут "кухня - комната" - этого достаточно для выполнения задачи с чаем. Возникло препятствие на пути - нарушен маршрут, теперь приоритет меняется и если ситуация ему знакома - он находит решение обойти ползущего ребенка без контакта, если ситуация не знакома - включается режим обучения и он просто ждет решения от хозяина, сообщив ему о проблеме. Всё, другого алгоритма не нужно - так учатся жить человеческие дети и ничего не мешает таким же методом обучать машину. Ведь я очень сомневаюсь, что ползущий ребенок ползет всегда в правильном направлении и не задевает другого ползущего ребенка или не бьет вазы, просто на пути у таких ребенков стараются не ставить эти самые вазы, чтобы они их не били. Почему программеры вдруг решили, что их электронные ребенки должны из коробки все проблемы решать? Пусть учатся, у электронных ребенков это получится значительно быстрее, чем за 18 лет, как у человеческих.
@danikmolly875
@danikmolly875 Год назад
Ага, обобщение часто интересные результаты дает и помогает сэкономить ресурсы. Здесь проблема больше в оптимизации и так непростых алгоритмов, потому что любой процессор - это далеко не мозг; и если обучать электронных ребенков на полном (относительно наших способов восприятия) описании мира, а не условном огрызке, то времени это займет в [очень много] раз больше 18-ти лет. Зы: А еще производство таких ребенков неоправданно затратно.
@tech_eng
@tech_eng Год назад
@@danikmolly875 если процессор отучить просчитывать каждый шаг с точностью 4 знака после запятой, как этот легко умеет человеческий мозг, то высвободившейся мощности хватит обработать картинку в 4К качестве
@Romanitto
@Romanitto Год назад
а если робота отправить в магаз и по дороге домой он нарвался на хулионав и тут сразу програма включает боевой режим: ракеты земля-земля, миниган на 500 патронов где робот помагает хулианам понять кто в мире хозяин. Перепятсвтие убрано с дороги и робот может вернутся домой с едой чтоб накормить коженого ублюдка. 😁
@vit777vit
@vit777vit Год назад
Программеры ничего не решают, они программируют... многие из них даже понятия не имеют как приготовить чай. Для этого нужен ии.
@RomaPervak
@RomaPervak Год назад
@@danikmolly875 Необязательно каждого обучать. Одного обучил и копируй потом, сколько влезет.
@user-yg9vy5zo1s
@user-yg9vy5zo1s Год назад
Ответ такой, как я всегда говорю насчёт проблем и дилемм с роботами - задайте вопрос, который хотите задать про робота, про человека. Например, как он поступит в сложной ситуации. К примеру, когда есть сложный моральный выбор. А если у вас есть ответ, например как с кофе - задайте вопрос, почему человек делает именно так, что за это отвечает? То есть, проще говоря, прежде чем создавать сложный искусственный разум, нам нужно понять точно, как работает наш собственный. Иначе мы либо не сможем создать разум, либо же мы создадим разум, но иной, и понять друг друга мы не сможем. Далее, так как наш разум работает под влиянием эмоций, инстинктов, привычек и прочего, мы поймём, что создать такой же искусственный разум мы не можем, а главное в этом нет смысла, ведь это часто засоряет разум и мешает нормально работать, к примеру, нам не нужен ИИ, который не сделал что-то, потому что ему стало грустно. И что бы создать ИИ по нашему подобию, но при этом без мусора в голове, нужно самим от него избавиться, то есть начать нужно с изменения себя, становиться умнее. Это вообще обязательное условие при создании ИИ - развивать себя, будь то генная инженерия, аугментации или чипизация, но нужно меняться, иначе мы просто опять же перестанем понимать ИИ, а так же контролировать. Я бы сказал, что создание полноценного ИИ возможно только в трансгуманистическом обществе, иначе либо ничего не получится, либо будут проблемы. Так вот, нам нужно понять, как человек наливает кофе. Почему он делает так? А потому что научился. Как он научился? Его научили. Кто? Другие люди. Как? Они показывали ему и объясняли, а человек наблюдал и при помощи зеркальных нейронов учился копировать и понимать происходящее, и мог воспроизводить. Так вот, полноценный ИИ нужно будет учить так же при помощи людей, предварительно заложив программы анализа, запоминание в виде виртуальной модели и воспроизведения. И разумеется, речь не только о кофе, ведь человек, когда учится делать кофе, он уже знает, например, что такое вода, что такое температура, кипяток, молоко, холодильник, электричество, кнопки, зёрна и блендер, а перед тем, как узнать о том, что такое, например, холодильник, он узнал, что такое металл, комната, полки, холод, и так далее. И этому его тоже кто-то обучил и показал, как правильно взаимодействовать. То есть всё на самом деле одновременно проще и сложнее. Проще в том плане, что нам не надо писать алгоритм, где мы ставим задачу с вознаграждением и робот сам ищет оптимальные пути для выполнения задачи, при этом ему нужно будет обработать тонны информации и о среде, прогнозах, рисках и множества путей для выполнения задачи, ибо он будет как человек - посмотрел на другого, понял принцип и повторяет выполнение задачи одинаковым одним и тем же образом. Но сложнее в том, что нужно создавать такие системы обучения, как у человека. Вообще для создания полноценного ИИ его надо учить принципам. Как и людей, кстати, новичок на работе отличается от старичка тем, что просто повторяет сказанные действия, не понимая, зачем, подлинное обучение происходит, когда он осознаёт базовый принцип и сможет эту работу уже сделать в совсем разных иных условиях. К примеру, понимая принцип взаимодействия дерева с острыми предметами, он может как делать табуретки на столярном станке, так и вырезать ложки каменным ножом. То есть на самом деле, все проблемы ИИ, которые там озвучат, связаны с принципиально не верным подходом к созданию. Они хотят, что бы ИИ делал как человек, но программируют его, как программу, и поверхностно, симптоматично, а не по сути. А ведь процессы обучения давно изучены и мы каждый день учим детей, по такому же принципу можно обучать и ИИ, только нужно воссоздать всё те же инструменты обучения, за которые отвечают разные отделы мозга, а для этого их нужно самим понять в идеале.
@MixPlayTV-rc7pb
@MixPlayTV-rc7pb Год назад
Могу добавить, что после того как мы поймём как работает наш мозг, можно будет создать его искусственный аналог, подключить к нему мозг сформированного взрослого человека, ученого например, и постепенно отключать функции биологического мозга, наш мозг будет нагружать любые свободные нейроны взамен утраченных, и искусственные в том числе, так, постепенно мы перенесем сознание в искусственный мозг, и наш человек станет ИИ
@tedbon5135
@tedbon5135 Год назад
@@MixPlayTV-rc7pb все это возможно если ты реально создашь искусственный мозг что само по себе сложно, но ещё и подключить их к друг другу вовсе не означает что произойдёт спокойный перенос. При передаче существенная часть данных может потеряться и личность разрушится из-за дыр в ядре. Мы до сих пор не знаем каким образом, почему и как наш мозг адаптируется и может напрягать другие нейроны, а иногда не может и дохнет. Даже если получится создать искусственный мозг и даже если получится удачно подключить его к человеческому мозгу, и даже если человек после этого не станет овощем и даже если при медленном отключении мозга на одном из этапов человек не превратится в овоща и даже если перенос таки произойдёт успешно, и даже если личность нельзя будет отличить от настоящей, мы все равно никак не сможем подтвердить это копия или оригинал.
@tedbon5135
@tedbon5135 Год назад
Товарищ, на всё что ты сказал я дам тебе простой ответ. Если бы то, что ты говорил было правильным в отношении создания ИИ, то это значит что ИИ уже давно создали. Каждая мать это создательница ИИ. Если делать как ты говоришь, то нам нафиг не нужны робот, мы просто создадим касту искусственных людей, выключим их эмоции и назовём их роботами и будем продавать их называя «синтетики». Будущее которое в принципе уже осуществимо.
@konstantinkutsyllo8661
@konstantinkutsyllo8661 Год назад
Вообще-то нейронные сети именно что обучают
@imaginewave1
@imaginewave1 Год назад
Элита смотрит в 144p
@GetManCA
@GetManCA Год назад
Да, легче самому сходить на кухню😂🤣
@LiquidPotroh
@LiquidPotroh Год назад
Субтитры в начале видео просто божественные
@constantaeski6651
@constantaeski6651 Год назад
Есть проблема. В примере с чаем есть вариант как минимизировать изменения. Робот может всё вернуть на место. Звучит неплохо, пока не приходит осознание того, что пакетик он не выбросит,так как изменения тогда будут существенны. Вместо этого он высушит пакетик и положит на место к остальным пакетикам. Или вот ещё пример. Робот хочет наполнить чайник, чтобы вернуть всё как было, но воду отключили. Что он сделает? Чайник был полный, а теперь пустой. Воду отключили, но вода есть в аквариуме и в вазе с цветами. Если толить от туда воду, то существенно количество воды в них не уменьшится, хоть и будет отличаться от исходного. Зато чайник будет полон и изменения будут сведены к минимому. В сливном бочке, к слову, тоже вода есть. В общем, создав задачу минимизировать любые изменения, выходящие за определённый диапазон мы получаем новую проблему в виде огромного количества сравнительно мелких побочных эффектов, созданных намеренно с целью снизить количество крупных. Однако, не факт, что наши представления о мелких изменениях и крупных будут совпадать с расчётами ИИ. В итоге, что создавали правило, что не создавали, итог +- тот же
@mikeprosto3106
@mikeprosto3106 Год назад
Спасибо!!!
@mike-stpr
@mike-stpr Год назад
Ответ давно найден: три закона робототехники решат все перечисленные проблемы, это еще Айзек Азимов доказал! Странно, что этого не прозвучало в комментах.. Ну или я не нашел. А в целом ролик шикарный, озвучка, как всегда супер! СПАСИБО!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! :-)
@obreti.svobodu
@obreti.svobodu Год назад
Когда за человека начинает думать ИИ, на человека надевают намордник и вкалывают шмурдяк)))
@kaiken9101
@kaiken9101 Год назад
1. Научить систему просчитывать уровень последствий, по типу если подвинуть кресло то норм, если убить человека не норм, не прийдется прописывать все а только последствия типа убийство и или разрушение чего либо
@TayaTerumi
@TayaTerumi Год назад
Робот не подаст тебе еды, потому что есть 0.01% шанс, что ты подавишься и задохнёшься.
@who-zw2fj
@who-zw2fj Год назад
Тоже слишком много параметров. Также как и у всех людей разные моральные принципы,например как если бы робот выключил кондиционер,то некоторым людям понравилось это,мол было слишком холодно,другим - напротив - стало бы слишком жарко. Кривой пример,но суть,думаю,понятна.
@user-bb3te7xk2r
@user-bb3te7xk2r Год назад
Естественный отбор Дарвина помоему хороший пример. Нас не интересует процесс выполнения цели главное результат. Многие люди постоянно рискуют жизнью ради лайков и денег в интернет видео и мало кого из людей это волнует. А ИИ и подавно всё равно=)
@__-de6he
@__-de6he Год назад
По-моему, все эти размышлизмы сводятся к классической "проблеме задания целевой функции". Неважно, для роботов или для людей. И как решение - отсутствие решения, иначе бы у человечества не было бы ритарических вопросов, что такое хорошо, а что такое плохо. 🙂
@Time2paw
@Time2paw Год назад
просто роботов нужно использовать в среде, которая предсказуема и спектр задач робота ограничен. Так же и с ии. Он выполняет строго целевую задачу и владеет всеми необходимыми параметрами. Если же этот барьер пересечь, то у нас выходит шахматная партия с непредсказуемым исходом. Начиная от погрешностей, заканчивая ошибками при создании, огромное кол-во факторов, влияющих на окружающую среду и эти факторы человек еще не смог оцифровать.
@__-de6he
@__-de6he Год назад
@@Time2paw Ну, это известная проблема контррлипуемость vs гибкость
@Gennady_Mitson
@Gennady_Mitson Год назад
Когда-то давно самые первые квантовые компьютеры имели по 8-16 кубитов и занимали при этом несколько больших комнат в здании. Со временем размер квантового компьютера уменьшился до размера небольшого стола, потом небольшой коробочки на этом столе. Сейчас квантовый сопроцессор в несколько тысяч кубитов есть в каждом наручном телефоне. Вычислительная мощность одного такого сопроцессора в миллиарды раз превышает все вычислительные мощности на Земле в начале 21 века... Прогноз такой :)
@d.g.5316
@d.g.5316 Год назад
Чёрт, я даже не думал об этом 🤦🏻‍♂️ Очень интересно, жду продолжения!
@user-md2cb5cc5r
@user-md2cb5cc5r Год назад
Начитался комментов... Люююдиии! Ауу! Вы есть на этой планете?!
@xuko6792
@xuko6792 Год назад
Да! Лучший проповедник безопастности ИИ теперь на русском!
@igfanik
@igfanik Год назад
В Улитке на склоне есть диалог машин в коробках . В диалоге затрагивается подобная проблема.
@VVS115
@VVS115 Год назад
Эти проблемы программирования роботов, а не проблемы ИИ. Если робот будет с интеллектом, то его обучение не составит большого труда.
@fenrirawe6857
@fenrirawe6857 Год назад
Очень интересный подход и анализ. В любом случае, все пряники и булыжники достанутся не роботу, а разработчику. И теперь главный вопрос: сколько лет понадобится разработчику, чтобы достигнуть идеальный результат для своих ИИ? И будет ли место "мечтаниям" и проявлению воли, зарождающемуся ИИ?
@user-yu4fi1us1d
@user-yu4fi1us1d Год назад
При существующей архитектуре вычислительных систем мечту об искусственном интеллекте стоит забыть. И, кстати, пока что речь идёт всего лишь о ТЕХНИЧЕСКОМ ИНТЕЛЛЕКТЕ, то есть интеллекте, реализованном в техническом устройстве. Второе замечание. В живой клетке мы наблюдаем возможность "модификации" своих функций для выполнения любых задач в зависимости от внешних условий. Бред о самообучаемости вычислительной системы привёл к тому, что в эту чушь начали верить даже те, кто является программистом. И последнее замечание. Архитектура централизованных закрытых вычислительных систем привела к резкому падению КПД вычислительных систем. Сегодня можно уверенно сказать, что очень скоро основной работой вычислительной системы будет обслуживание самих себя. Иначе вероятность сбоев в особо критических технологических процессах приближается к опасной отметке, после которой встанет вопрос о сохранении жизни на планете. Решение существует, но оно невыгодно для власть предержащих, так как в этом случае у власти возникают сложные вопросы о контроле не только за техническими системами, но и за социальными процессами. Речь идёт о децентрализованных технических и вычислительных системах. В качестве примера приведу возможность работы двигателя на воде. но вот как контролировать людей в этом случае? И это самый безобидный пример...
@user-so7po2op2e
@user-so7po2op2e Год назад
@@user-yu4fi1us1d Текущие нейросети действительно могут самообучаться, это отдельный пласт алгоритмов, а Вы своим комментарием просто взяли и стерли его, как же так. Простой пример - необходимо создать нейросеть которая будет ловить падающий кубик, мы можем либо корректировать параметры движений нейросети, так, чтобы её модель становилась все лучше и лучше, либо изначально акцентировать внимание лишь на результате - кубик должен не упасть, тогда система будет пытаться корректировать свои же параметры для достижения все лучшего результата, а следовательно самообучаться на своих же ошибках.
@alexmarch232
@alexmarch232 Год назад
@@user-yu4fi1us1d угроза жизни на планете - это ТЫ и подобные тебе русские, а не ИИ 😉
@user-yu4fi1us1d
@user-yu4fi1us1d Год назад
@@user-so7po2op2e Разве можно назвать самообучением заданное условие: "кубик должен не упасть"? Это изначально устанавливает человек. И он также создаёт соответствующие устройства, которые обладают заданными человеком функциями. Хорошо. Робот научился ловить, при условии такой функциональной возможности, заданной человеком. И, если человек может не только научиться ловить, но и научиться плавать, то данный робот ни при каких условиях никогда не поплывёт. Просто утонет. Ну не заложены в него функции плавания. Поэтому, говорить о том, что это ИСКУССТВЕННО ВЫРАЩЕННЫЙ ИНТЕЛЛЕКТ рано. Это элемент ТЕХНИЧЕСКОГО устройства и его более корректно называть ТЕХНИЧЕСКИЙ ИНТЕЛЛЕКТ. Что значит ВЫРАЩИВАТЬ ИНТЕЛЛЕКТ? Для начала нужно понять, что является носителем этого интеллекта. И способен ли человек именно выращивать среду ИИ. Сегодня -- однозначно нет. Причин много. И не в последнюю очередь ограниченность самой технологии создания (архитектуры) микросхем. Принципы действия человеческого интеллекта до сих пор тайна за семью печатями. И явно человек на многие тысячи порядков сложнее устроен. И работа его интеллекта не описывается алгоритмами, заложенными в ИИ.
@mootal2202
@mootal2202 Год назад
@@user-yu4fi1us1d какой потрясающий бред. Браво.
@indeecmaya8598
@indeecmaya8598 Год назад
Занимательно))
@URSULA_MEDUZONA
@URSULA_MEDUZONA Год назад
Интересно!)
@aved6937
@aved6937 Год назад
На данном этапе развития человечества и технологий, так называемый, Искусственный Интеллект не может быть создан в принципе!
@dinosauor
@dinosauor 15 дней назад
Вот решение. Давая задачу, вознаграждать ии не за выполнение задачи, а за то, доволен ли заказчик. Так как ии умеет обучаться, то вскоре после тренировки самостоятельно придёт к решению, как нужно выполнять задания, так же, как ребёнок, который пытается выполнить поручение отца.
@juragokhberg
@juragokhberg Год назад
Super! Super! Super! 👍🏼👍🏼👍🏼👍🏼👍🏼
@ACclams1e
@ACclams1e Год назад
Функция: играть в шахматы Палец мальчика: не важно
@homo._.sapiens
@homo._.sapiens Год назад
Вот только без изменений мира робот может скажем, вытащить пакетик из мусорки и положить обратно.
@user-vp6hw9sn3p
@user-vp6hw9sn3p Год назад
Люди слишком многое хотят от ИИ. Думают что прогресс должен постоянно расти,может есть всему пределы...
@DimitriSkepsiiski
@DimitriSkepsiiski Год назад
Если Человек хочет уничтожить себя, то его ничего не остановит. Даже разговоры об опасности самоуничтожения.
@Letsgou2829
@Letsgou2829 Год назад
Методом проб и ошибок можно ввести ии в нашу повседневную жизнь. Ничего не жертвуя ты не получишь даже глоток воздуха
@ernalliddual
@ernalliddual Год назад
Не поднялся только момент проблемы - что будет если в эту модель добавится вмешательство извне. К примеру - что если робот просчитал возможные варианты происходящего, но та же сожительница идя с коффе спотыкается и падает в сторону робота проливая при этом коффе? Какова будет реакция робота с ИИ на это?
@RomaPervak
@RomaPervak Год назад
На месте сожительницы, я был бы поаккуратнее)))
@Legionsale
@Legionsale Год назад
Единая Электромагнитная Теория! Пусть два тела, с одинаковыми массами m1=m2=m и одинаковыми зарядами q1=q2=q взаимодействуют. Предположив, что силы Ньютона и Кулона - это одна и та же сила, которая действует одинаково и на больших и на малых расстояниях, приравняем их и вычислим массу через заряд: m^2=k/G×q^2 m=(k/G)^1/2×q Далее найдем общий заряд тела: Qобщ = q(+)+q(-) = q1 - q2 q1=a×q2 m2=(k/G)^(1/2)×q2 Из двух уравнений выше видно, что m2=q1=a×q2=(k/G)^(1/2)×q2, т.к. a=(k/G)^1/2 - const То есть масса "m" прямопропорциональна заряду "q" в постоянное количеств раз "a". Получается: Qобщ=q2(m-1) Можете проверить: (k/G)^1/2×q даст приблизительно верную массу(с погрешностями) точную даёт формула: Q=q(m-1) m=Q/q+1 Поймите, тела притягиваются и отталкиваются пропорционально массам; масса - есть пропорция противоположных зарядов в телах, которые либо притягиваются, либо отталкиваются! Все ребята, считайте, проверяйте. Я "сломал" физику. 😂😂😂
@user-ok5pi3dg7y
@user-ok5pi3dg7y Год назад
задача от начальника - прикати рояль - на нем моя рюмка коньяка стоит
@occamsr
@occamsr Год назад
Просто коммент. Для продвижения просветительской деятельности.
@photonsphere760
@photonsphere760 Год назад
да он прям Сьюзен Кельвин робопсихолог )
@user-vt6fj9pd6b
@user-vt6fj9pd6b Год назад
если ии уронит пакет молока, когда готовит кофе, то он начнет собирать молоко с пола обратно в пакет =)
@nicivanov5135
@nicivanov5135 Год назад
1 определяется как объект взаимодействуют с миром. 2 изменения сделанные женщиной, кошкой, собакой, вентилятором не учитываются при подсчёте измерений.
@ardarutyun4525
@ardarutyun4525 Год назад
Молодец
@-eXtremal-
@-eXtremal- Год назад
Условия работы ии должны соответствовать прописанной логике! Ии должны работать там, где нет детей и ваз, перемещаться по рельсам, и т.д. и так мы приходим, что ии, это обычный робот манипулятор с любого завода и никакой ии!
@user-mc7uu3vh8c
@user-mc7uu3vh8c Год назад
Может пойти не так что уже есть два предложения и безисходность одного решения,роздиления задачи на два,четыре,восем... Задач решения у котором ии может обрести разум?
@user-yt4mh2xg9r
@user-yt4mh2xg9r Год назад
Провлема в том, что от робота ждут поведение аналогичное человеку, при этом хотят обойтись примитивной (для человека) целефой функцией. Но если сравнивать обучение робота и человека, то будет очевидно, что человек в детстве успел и разнести вазу, и разгромить кухню, и запнуться о кошку. При этом за каждое подобное действие он получил такой штраф, что повторять это действие больше не захочет. Соответственно у человека все штрафы и коэффициенты неявно прописаны. Более того у человека есть понимание ценности предметов, если он купил ноутбук за 100 500 денег, то очевидно он будет с ним обращаться аккуратнее, чем с игрушечным ноутбуком за 100 рублей. Так что, на мой взгляд, целесообразнее делать робота с базовыми навыками и возможностью учиться. А если еще и дать возможность делиться навыками, то дальше сообщество само разберется - кто-то научит готовить, кто-то кунг-фу, кто-то уборке... в итоге получим поведение, превосходящее среднего человека.
@wasasaasasaw4877
@wasasaasasaw4877 Год назад
Если он нарушит мир в любом случае, то следующее рассуждение как сделать так что-бы мир был нарушен в меньшей степени. И он такой считает, если он будет работать некое количество лет мир преобразится в совершенно другой мир. Вычитаем одно из другого и он видит что при исполнении своих функций он изменит мир на N. Вопрос когда N будет больше чем весь мир (или хотя бы отдельно взятая кухня)? Будет ли он при такой программе решать что лучше спокойный идеальный мир без изменений?
@cruisecontrol1489
@cruisecontrol1489 Год назад
Искать подходы к ещё не существующим системам, которые могут контекстно мыслить и тем более корректно действовать от ситуации - высшая степень фантазии молодого парнишки и не более. Как только смысловая модель сетей достигнет такого уровня, соответственые решения проблем будут реализовываться точно не так как озвучено в этом ролике
@seraseraliona4979
@seraseraliona4979 Год назад
У фильма Я робот спросить как сделать безопасный ии. ) На самом деле всё просто🤷🏻 Два правила: 1 учить что делать 2 учить что не делать в той или иной ситуации🤷🏻 Мусолят эту тему потому что есть спрос)))
@seraseraliona4979
@seraseraliona4979 Год назад
Дети убивают птичек и тд. пока их не учат не делать этого🤷🏻
@seraseraliona4979
@seraseraliona4979 Год назад
Другой вопрос если какой то псих построит продвинутый ии который сможет себя сам построить с целью убивать всё живое
@EugenePitenko
@EugenePitenko Год назад
три закона робототехники... во имя святого Айзека!
@viktorm.7595
@viktorm.7595 Год назад
Человек не раздавит ребенка по пути на кухню потому, что тот несоизмеримо ценнее кружки чая в обычных условиях. ИИ будет принимать разные решения в одинаковых условиях но с разными объемами данных. Создавая робота - домохозяйку, следует ограничить его "умственные способности" иначе загрузив данные из сети за всю историю ИИ может придти к выводу, что чай для этого человека в данный момент важнее ползающего ребенка под ногами.
@Uni-Coder
@Uni-Coder Год назад
Я поржал с коммента внизу экрана на 5:42. "Камера в фокусе, просто я расплываюсь. Это редкое заболевание"
@user-ln2sb8jh9o
@user-ln2sb8jh9o Год назад
он намеренно ушёл от решения. робот должен минимизировать СОБСТВЕННОЕ влияние на окружающий мир. тогда и в случае с соседом заваривающим кофе робот ничего не будет предпринимать, и за собой всё вернёт на место, и в случае автомобиля по идее должен будет остановиться
@ACclams1e
@ACclams1e Год назад
Почему мне кажется что вы про это что то знаете?🌚
@ZhorikObzhorik
@ZhorikObzhorik Год назад
Короче сказав: робот оценит баллы и ему будет проще не пренести вам кофе, чем получить штраф за косяки и потом тратить энергию на их решение... короче... он прикинется человеком и скажет:" зачем мне туда воообще идти. я больше штрафов получу, ежели кофе донесу..." и это с точки зрения человека логично. Но!!! зачем тогда роботы? Переезжать препятствия и всех давить ради кружки чая?
@user-ln2sb8jh9o
@user-ln2sb8jh9o Год назад
@@ACclams1e работал над нейросетями
@rsa5991
@rsa5991 Год назад
>в случае автомобиля по идее должен будет остановиться Нет. В случае автомбиля робот должен будет развернуться и вернуть автомобиль на место - именно это состояние было до влияния робота. При этом при большой дальности езды, робот может решить, что устроить аварию проще и быстрее, чем возвращаться.
@Jimmy1972
@Jimmy1972 Год назад
Из видео я понял, что лучший AI это человек.
@user-ox1sb7qc5h
@user-ox1sb7qc5h Год назад
Когда люди правят миром, у них тоже есть свои задвиги в голове, и набор своих приоритетов. Поэтому я вижу преимущество искусственного интеллекта в любых действиях, только необходимо, чтобы он был достаточно обучен
@user-ox1sb7qc5h
@user-ox1sb7qc5h Год назад
Кстати, ребенка может сбить и пьяный мужик, который пошел себе кофе налить. Или просто, очень торпливый человек легко разобьёт вазу. Я уж не говорю про водителей
@user-mc7uu3vh8c
@user-mc7uu3vh8c Год назад
Главное не розделять границы между роботом и человеческим делом которое можно скинуть к примеру на робота,что люди что остальное, планета - все делают что делают и да это катаклизм будет со стороны робота но Айзек это ейнштейн роботов,, и конечно если все ленивое человеческое оставлять на 'роботов' то конечно, жди жывого действия.лучше самим стать роботами и обвестись личными роботами и отвечать за них
@user-jn6hh6xv9l
@user-jn6hh6xv9l Год назад
Как насчёт трёх законов робототехники???
@jreyhs
@jreyhs Год назад
Безопасный и при этом умный ИИ невозможен, получается только скайнет...
@user-ox1sb7qc5h
@user-ox1sb7qc5h Год назад
Иногда и люди торопятсЯ, и могут поставить груз на человека, например или не соблюсти технику безопасности
@uzexchange
@uzexchange Год назад
В конце всех измышлений робот выйдет на самого владельца (программиста) и прибьёт его ..если до этого не случится очередной форс-мажор не прописанный в алгоритме. 😄
@vernite_nickname
@vernite_nickname Год назад
Выдавливание предложения по одному слову невероятно напрягает.
@petr__
@petr__ Год назад
Всë просто. Надо загрузить мозг какого-нибудь человека в робота, и пусть работает. Наш мозг уже всë учëл и придумывать ничего не надо
@iGynLoD
@iGynLoD Год назад
Да тут сама постановка задачи низкоконтекстная. Вообще с чаем тут две задачи - логистическая (принести), и кулинарная (приготовить). Каждый тип задач должен иметь свои нюансы и опции, так же как и автопилот на автомобиле. Ну а пример с препятствием - это прямо несерьезно. Собственно, сама логистика есть преодоление препятствия в виде расстояния. Словом, немного высосано из пальца.
@ilya_san
@ilya_san Год назад
Поддерживаю, сценарий проблемы и ее решение выглядит не продуманным. Логично что для вождения машины и для приготовления кофе нужны разные навыки и знания, а автор это смел в одну кучу. Нужно больше декомпозировать работу ИИ и для каждого типа задачи писать свои приколы
@classiconservator2795
@classiconservator2795 Год назад
Еще и почему то никого не смущает что робот приготовивший и принесший чай пусть и идеально это вообще не ИИ Причем тут вообще ии
@theAmarale
@theAmarale Год назад
@@classiconservator2795 , лол а что тогда ИИ?
@classiconservator2795
@classiconservator2795 Год назад
@@theAmarale саморазвивающаяся система. А не тупо выполняющая задачи
@theAmarale
@theAmarale Год назад
@@classiconservator2795 , куда развивающаяся? Что критерий для ИИ если не правильно выполненная задача?
@user-md2cb5cc5r
@user-md2cb5cc5r Год назад
Вот реальный (уже состоявшийся) пример: Стадо усиленно пользуется банковскими карточками = виртуальными долговыми обязательствами... А теперь, когда у всех баранов есть карточки, начинается безуведомительный отъём виртуальных денег, со словами "ZA штрафы" и т.д. В общественном транспорте - теперь деньги не принимают. А в китае УЖЕ обнуляют карточки, если ты не понравился - и выбрасывайся в окно! Почему всё так?! - да потому, что мозгов нет и думать не хотят!
@user-mc7uu3vh8c
@user-mc7uu3vh8c Год назад
А Как же айзек?три закона,неработат?,,ну да ну да но мы не создаём беду,не хотим же ..
@test37485
@test37485 Год назад
- Робот , любой ценой я хочу слетать на Юг, всё остальное не важно! Робот , подсчитывает случайные переменные , берет анализ воздуха , оценивает силу ветра, сгибает человека в полуприсяде , разворачивает к себе спиной и выписывает смачный пендаль под сраку.
@KostaShah
@KostaShah Год назад
Разве Азимов не решил все эти проблемы тремя простыми законами десятки лет назад?
@vasyanpro4567345
@vasyanpro4567345 Год назад
Это скрипты, а не ИИ. Мы хотим, чтобы ИИ сам думал и учился. Открывал новые законы науки и техники
@us_pw.Iron_handley
@us_pw.Iron_handley Год назад
у жизни есть мотивация к самосохранению. какая мотивация будет у компьютера? вопрос даже не об осознанности. вряд ли микробы осознают себя, тем не менее они живые.
Далее
НЕ ПОКУПАЙ iPad Pro
13:46
Просмотров 277 тыс.
Chips evolution !! 😔😔
00:23
Просмотров 3,7 млн
Терпение и труд vs удача [Veritasium]
11:12
Phone charger explosion
0:43
Просмотров 55 млн
Best Gun Stock for VR gaming. #vr #vrgaming  #glistco
0:15
Вот ЗАЧЕМ здесь ВОДЯНКА?
1:00
Просмотров 135 тыс.
✅ЛУЧШИЙ гаджет Apple🍏
0:32
Просмотров 308 тыс.