Star 历史趋势
数据来源: GitHub API · 生成自 Stargazers.cn
README.md

GitHub issues GitHub stars GitHub forks Downloads 知识共享许可协议

蘑菇书EasyRL

李宏毅老师的《深度强化学习》是强化学习领域经典的中文视频之一。李老师幽默风趣的上课风格让晦涩难懂的强化学习理论变得轻松易懂,他会通过很多有趣的例子来讲解强化学习理论。比如老师经常会用玩 Atari 游戏的例子来讲解强化学习算法。此外,为了教程的完整性,我们整理了周博磊老师的《强化学习纲要》、李科浇老师的《世界冠军带你从零实践强化学习》以及多个强化学习的经典资料作为补充。对于想入门强化学习又想看中文讲解的人来说绝对是非常推荐的。

本教程也称为“蘑菇书”,寓意是希望此书能够为读者注入活力,让读者“吃”下这本蘑菇之后,能够饶有兴致地探索强化学习,像马里奥那样愈加强大,继而在人工智能领域觅得意外的收获。

贡献者

pic
Qi Wang

教程设计(第1~12章)
上海交通大学博士生
中国科学院大学硕士

pic
Yiyuan Yang

习题设计&第13章
牛津大学博士生
清华大学硕士

pic
John Jim

算法实战
北京大学硕士

使用说明

纸质版

推荐购买链接:京东 | 当当

pic

推荐京东扫码购买

pic

当当扫码购买

豆瓣评分:https://book.douban.com/subject/35781275/

[!IMPORTANT] 勘误修订表https://datawhalechina.github.io/easy-rl/#/errata

在线阅读(内容实时更新)

地址:https://datawhalechina.github.io/easy-rl/

最新版PDF下载

地址:https://github.com/datawhalechina/easy-rl/releases

国内地址:链接: https://pan.baidu.com/s/1isqQnpVRWbb3yh83Vs0kbw 提取码: us6a

压缩版(推荐网速较差的读者使用,文件小,图片分辨率较低):链接: https://pan.baidu.com/s/1mUECyMKDZp-z4-CGjFhdAw 提取码: tzds

纸质版和PDF版的区别

PDF版本是全书初稿,人民邮电出版社的编辑老师们对初稿进行了反复修缮,最终诞生了纸质书籍,在此向人民邮电出版社的编辑老师的认真严谨表示衷心的感谢!(附:校对样稿)

内容导航

章节习题相关项目配套代码
第一章 强化学习基础第一章 习题
第二章 马尔可夫决策过程 (MDP)第二章 习题值迭代算法
第三章 表格型方法第三章 习题Q-learning算法实战Q-learningSarsa蒙特卡洛
第四章 策略梯度第四章 习题策略梯度
第五章 近端策略优化 (PPO) 算法第五章 习题PPO
第六章 DQN (基本概念)第六章 习题DQN
第七章 DQN (进阶技巧)第七章 习题DQN算法实战Double DQNDueling DQNPER DQNNoisy DQN
第八章 DQN (连续动作)第八章 习题
第九章 演员-评论员算法第九章 习题A2C
第十章 稀疏奖励第十章 习题
第十一章 模仿学习第十一章 习题
第十二章 深度确定性策略梯度 (DDPG) 算法第十二章 习题DDPG算法实战DDPG
第十三章 AlphaStar 论文解读
ICLR'25 Oral 强化学习玩MineCraft
视觉强化学习论文清单(Awesome Visual RL)
世界模型的本质

算法实战

算法实战部分包括附书代码和JoyRL代码:

经典强化学习论文解读

点击或者网页点击papers文件夹进入经典强化学习论文解读

扩展资源

相关视频内容

引用信息

王琦,杨毅远,江季,Easy RL:强化学习教程,人民邮电出版社,https://github.com/datawhalechina/easy-rl, 2022.
Qi Wang, Yiyuan Yang, Ji Jiang,Easy RL: Reinforcement Learning Tutorial,Posts & Telecom Press,https://github.com/datawhalechina/easy-rl, 2022.
@book{wang2022easyrl, title = {Easy RL:强化学习教程}, publisher = {人民邮电出版社}, year = {2022}, author = {王琦,杨毅远,江季}, address = {北京}, isbn = {9787115584700}, url = {https://github.com/datawhalechina/easy-rl} }
@book{wang2022easyrl, title = {Easy RL: Reinforcement Learning Tutorial}, publisher = {Posts & Telecom Press}, year = {2022}, author = {Qi Wang, Yiyuan Yang, Ji Jiang}, address = {Beijing}, isbn = {9787115584700}, url = {https://github.com/datawhalechina/easy-rl} }

如果您需要转载该教程的内容,请注明出处:https://github.com/datawhalechina/easy-rl

致谢

特别感谢 @Sm1les@LSGOMYP 对本项目的帮助与支持。

另外,十分感谢大家对于Easy-RL的关注。 Stargazers repo roster for @datawhalechina/easy-rl Forkers repo roster for @datawhalechina/easy-rl

关注我们

扫描下方二维码关注公众号:Datawhale,回复关键词“Easy-RL”,即可加入“Easy-RL读者交流群”

Datawhale是一个专注AI领域的开源组织,以“for the learner,和学习者一起成长”为愿景,构建对学习者最有价值的开源学习社区。关注我们,一起学习成长。

LICENSE

知识共享许可协议
本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。

Star History

Star History

关于 About

强化学习中文教程(蘑菇书🍄),在线阅读地址:https://datawhalechina.github.io/easy-rl/
a3cddpgdeep-reinforcement-learningdouble-dqndqndueling-dqneasy-rlimitation-learningpolicy-gradientppoq-learningreinforcement-learningsarsatd3

语言 Languages

Jupyter Notebook99.3%
Python0.7%

提交活跃度 Commit Activity

代码提交热力图
过去 52 周的开发活跃度
21
Total Commits
峰值: 7次/周
Less
More

核心贡献者 Contributors