【RLChina论文研讨会】第67期 张钰荻 强化学习中可解释的奖励重新分配:一种因果角度方法
【RLChina论文研讨会】第87期 林越 多智能体强化学习中的信息设计
【RLChina论文研讨会】第34期 马一宁 解决车辆路径问题的深度强化学习方法:近期发展及挑战
【RLChina 2021】第5课 强化学习入门(一) 张伟楠
【RLChina论文研讨会】第97期 胡昊 基于贝叶斯原则的离线到在线强化学习
【RLChina 2021】第12课 多智能体入门(二) 杜雅丽
【RLCHina 论文研讨会】第27期 刘世旋 增广POMDP:一种结合观测型数据和干预型数据的因果强化学习方法
【RLChina 论文研讨会】第29期 白丰硕 元奖励网络:一种隐式微分奖励学习的基于偏好的强化学习方法
【RLChina论文研讨会】第81期 曲云 基于反事实保守Q学习的离线多智能体强化学习算法
【RLChina 2022】专题报告一:多智能体强化学习 张崇洁
【RLChina论文研讨会】第93期 王治海 基于分层自适应多任务强化学习框架的乘法电路自动设计
【RLChina论文研讨会】第58期 王锡淮 Order Matters:Agent-by-agent Policy Optimization
【RLChina论文研讨会】第43期 王治海 面向资源受限强化学习的高效探索
【RLChina论文研讨会】第63期 赵一诺 机械臂控制中的视觉强化学习策略泛化研究近况
【RLChina论文研讨会】第24期 袁昊琦 离线元强化学习中基于对比学习的稳定任务表示
【RLChina论文研讨会】第72期 马纬彧 大模型玩转星际 新的基准和总结链的尝试
【RLChina论文研讨会】第68期 阳明宇 分层多智能体技能发现
【RLChina论文研讨会】第18期 杨正宇 面向应用的强化学习:使用策略集成提高泛化和样本效率
【RLChina 2022】实践课三:强化学习算法 田政
【RLChina 2021】第9课 强化学习前沿(一) 卢宗青