| 资源(41) |
时长( 10:21:45) |
播放量(80177) |
1.1马尔可夫过程 |
00:15:57
|
2193 |
1.2马尔可夫决策过程 |
00:14:51
|
2169 |
1.3环境已知与未知 |
00:10:58
|
2148 |
1.4环境的确定性与随机性 |
00:04:54
|
2193 |
1.5强化学习的应用 |
00:17:57
|
2093 |
第二章_01_MAB问题描述 |
00:08:46
|
1976 |
第二章_02_简单策略和贪婪策略 |
00:16:20
|
1983 |
第二章_03_探索利用平衡 |
00:15:50
|
1994 |
第二章_05_epsilon贪心策略 |
00:13:34
|
1971 |
第三章_01_三连棋游戏第一步走中间 |
00:19:49
|
1973 |
第三章_03_状态价值的定义与思想 |
00:19:17
|
1976 |
第三章_04_策略迭代法 |
00:19:01
|
1953 |
第三章_05_值迭代法 |
00:17:34
|
1966 |
第四章_01_状态-动作价值函数 |
00:18:31
|
1963 |
第四章_02_Sarsa |
00:11:24
|
1945 |
第四章_03_Q-learning |
00:15:56
|
1978 |
第四章_04_Q-learning和Sarsa的对比 |
00:20:47
|
1991 |
第四章_05_DQN |
00:10:07
|
1979 |
第五章_01_Gym简介和环境加载 |
00:20:58
|
1953 |
第五章_02_Gym的使用方法 |
00:13:48
|
1978 |
第六章_01_基于策略的思想 |
00:16:48
|
1957 |
第六章_02_随机性策略梯度方法 |
00:13:06
|
1964 |
第六章_03_策略梯度定理的推导(上) |
00:10:17
|
1964 |
第六章_03_策略梯度定理的推导(下) |
00:13:37
|
1968 |
第六章_04_蒙特卡罗方法 |
00:14:35
|
1972 |
第六章_05_REINFORCE算法 |
00:17:21
|
1984 |
第七章_01_策略梯度方法的缺点 |
00:09:34
|
1986 |
第七章_03_Actor-Critic的算法流程 |
00:16:09
|
2035 |
第七章_04_Actor-Critic with Baseline |
00:20:36
|
1982 |
第七章_05_广义优势函数估计 |
00:16:14
|
1986 |
第七章_11_DDPG的算法流程 |
00:18:44
|
2040 |
测试强化学习5.3视频 |
00:19:42
|
2169 |
测试强化学习-7.2视频 |
00:18:44
|
2159 |
第三章_02_三连棋游戏第一步走角落new |
00:11:00
|
2282 |
第二章_04_探索与利用的意义new |
00:19:24
|
2180 |
Actor Critic (v1) |
00:10:18
|
1517 |
Deep Q-Learning (V1) |
00:11:37
|
1513 |
Deep Q-Network(V1) |
00:15:56
|
1498 |
价值函数的近似算法(V1) |
00:11:22
|
1537 |
Deterministic Policy Gradient (V1) |
00:14:31
|
1551 |
Off-policy Actor-Critic(V1) |
00:15:51
|
1558 |