| 资源(55) |
时长( 00:00:00) |
播放量(105213) |
强化学习-学员网上学习行为规范 |
/
|
2287 |
强化学习-课程负责人简介 |
/
|
2263 |
强化学习-课程学习方法与策略 |
/
|
2206 |
强化学习-学习进度表 |
/
|
2219 |
2 Q-learning和Sarsa关键知识点 |
/
|
1858 |
3 策略梯度关键知识点 |
/
|
1870 |
案例 Q-learning解决悬崖寻路 |
/
|
1860 |
1 强化学习关键概念 |
/
|
1834 |
案例 REINFORCE算法求解小车爬山游戏 |
/
|
1840 |
案例 迷宫寻宝 |
/
|
1836 |
案例 利用策略迭代和值迭代求解迷宫寻宝问题 |
/
|
1835 |
案例 多臂老虎机问题策略的实现 |
/
|
1841 |
讲义1.1马尔可夫过程 |
/
|
1891 |
讲义1.2马尔可夫决策过程 |
/
|
1869 |
讲义1.4环境的确定性与随机性 |
/
|
1854 |
讲义2.3探索与利用平衡 |
/
|
1848 |
讲义2.5ε贪心策略 |
/
|
1876 |
讲义2.6案例训练 多臂老虎机问题策略实现 |
/
|
1877 |
讲义3.3状态价值的定义与思想 |
/
|
1883 |
讲义3.5值迭代法 |
/
|
1882 |
讲义4.1状态-动作价值函数 |
/
|
1911 |
讲义4.2Sarsa |
/
|
1892 |
讲义4.4Q-learning和Sarsa的对比 |
/
|
1900 |
讲义4.5DQN |
/
|
1909 |
讲义5.1Gym简介和环境加载 |
/
|
1920 |
讲义5.2Gym的使用方法 |
/
|
1908 |
讲义5.3Sarsa和Q-learning在悬崖寻路问题上的实现 |
/
|
1913 |
讲义6.1基于策略的思想 |
/
|
1916 |
讲义6.2随机性策略梯度方法 |
/
|
1903 |
讲义6.4蒙特卡罗方法 |
/
|
1913 |
讲义7.5广义优势函数估计 |
/
|
1904 |
讲义7.6DDPG的算法流程 |
/
|
1952 |
讲义2.4探索与利用的意义 |
/
|
1936 |
讲义7.2Actor-Critic的思想 |
/
|
1926 |
讲义7.3~7.4Actor-Critic的算法流程 |
/
|
1950 |
讲义6.3策略梯度定理的推导 |
/
|
1947 |
讲义6.5REINFORCE算法 |
/
|
1960 |
讲义4.3Q-learning |
/
|
1958 |
讲义3.1三连棋游戏第一步走中间 |
/
|
2020 |
讲义3.2三连棋游戏第一步走角落 |
/
|
1994 |
讲义2.1MAB问题描述 |
/
|
2026 |
讲义2.2简单策略和贪婪策略 |
/
|
2003 |
讲义1.3环境已知与未知 |
/
|
2014 |
讲义1.5强化学习的应用 |
/
|
2019 |
讲义7.1策略梯度方法的缺点 |
/
|
2044 |
讲义3.4策略迭代法 |
/
|
2014 |
案例 AC实现小车倒立摆游戏 |
/
|
2141 |
强化学习-课程考核大纲 (7.4) |
/
|
2204 |
强化学习-课程教学大纲 (7.4) |
/
|
2110 |
强化学习-课程教学设计一体化实施方案 (7.4) |
/
|
2110 |
第七单元 Actor-Critic-new |
/
|
1471 |
第四单元 QLearning |
/
|
1477 |
强化学习-课程教学大纲202309 |
/
|
1407 |
强化学习-课程教学设计一体化实施方案202309 |
/
|
1405 |
强化学习-课程考核大纲202309 |
/
|
1407 |