Тёмный
No video :(

Markov Decision Processes for Planning under Uncertainty (Cyrill Stachniss) 

Cyrill Stachniss
Подписаться 54 тыс.
Просмотров 4,7 тыс.
50% 1

Markov Decision Processes (in short MDPs) for Planning under Uncertainty
Cyrill Stachniss, Fall 2020

Опубликовано:

 

14 авг 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 8   
@abhinavgupta9990
@abhinavgupta9990 3 года назад
Absolutely marvellous introduction, Professor. Thank you so much for these insightful lectures.
@TheProblembaer2
@TheProblembaer2 8 месяцев назад
Thank you!
@michaellosh1851
@michaellosh1851 3 года назад
Great introduction!
@dushkoklincharov9099
@dushkoklincharov9099 3 года назад
Why not just move the charging station to the upper left corner :D Great lecture btw
@oldcowbb
@oldcowbb 2 года назад
your boss is gonna give you really big negative reward for changing the infrastructure
@vvyogi
@vvyogi 3 года назад
23:27 Very helpful explanation. 1 Question : Will discounting affect the behavior that we observe here? Will the agent prefer a faster, although riskier, route?
@CyrillStachniss
@CyrillStachniss 3 года назад
It will affect the behavior. The agent will prefer policies that lead to rewards being obtained earlier in time (they can be but are not necessarily more risky).
@oldcowbb
@oldcowbb 2 года назад
does mdp work for continuous states and continuous action? like work on R^2 plane instead of a finite grid
Далее
Robot Localization - An Overview (Cyrill Stachniss)
40:22
Motion Models (Nived Chebrolu)
41:12
Просмотров 8 тыс.
Qora Gelik
00:26
Просмотров 460 тыс.
ТАЙНЫ И ЗАГАДКИ ИНТЕРНЕТА 2
41:37
Self-Driving Cars: Planning (Benedikt Mersch)
54:34
Просмотров 9 тыс.
EKF-SLAM (Cyrill Stachniss)
1:07:04
Просмотров 21 тыс.
The moment we stopped understanding AI [AlexNet]
17:38
Просмотров 902 тыс.
Observation Models (Cyrill Stachniss)
39:47
Просмотров 8 тыс.
The Clever Way to Count Tanks - Numberphile
16:45
Просмотров 905 тыс.