
第 33 卷第 6 期
2016 年 6 月
控 制 理 论 与 应 用
Control Theory & Applications
Vol. 33 No. 6
Jun. 2016
深深深度度度强强强化化化学学学习习习综综综述述述: 兼兼兼论论论计计计算算算机机机围围围棋棋棋的的的发发发展展展
DOI: 10.7641/CTA.2016.60173
赵冬斌
1†
, 邵 坤
1
, 朱圆恒
1
, 李 栋
1
, 陈亚冉
1
, 王海涛
1
(1. 中国科学院自动化研究所 复杂系统管理与控制国家重点实验室, 北京 100190)
刘德荣
2
, 周 彤
3
, 王成红
4
(2. 北京科技大学 自动化学院, 北京 100083; 3. 清华大学 自动化系, 北京 100084;
4. 国家自然科学基金委 信息科学部, 北京 100085)
摘要: 深度强化学习将深度学习的感知能力和强化学习的决策能力相结合, 可以直接根据输入的图像进行控制,
是一种更接近人类思维方式的人工智能方法. 自提出以来, 深度强化学习在理论和应用方面均取得了显著的成果.
尤其是谷歌深智(DeepMind)团队基于深度强化学习方法研发的计算机围棋“初弈号–AlphaGo”, 在2016年3月以
4:1的大比分战胜了世界围棋顶级选手李世石(Lee Sedol), 成为人工智能历史上一个新里程碑. 为此, 本文综述深度
强化学习的发展历程, 兼论计算机围棋的历史, 分析算法特性, 探讨未来的发展趋势和应用前景, 期望能为控制理论
与应用新方向的发展提供有价值的参考.
关键词: 深度强化学习; 初弈号; 深度学习; 强化学习; 人工智能
中图分类号: TP273 文献标识码: A
Review of deep reinforcement learning and discussions on
the development of computer Go
ZHAO Dong-bin
†
, SHAO Kun, ZHU Yuan-heng, LI Dong, CHEN Ya-ran, WANG Hai-tao
(1. The State Key Laboratory of Managentment and Control for Complex Systems, Institute of Automation,
Chinese Academy of Sciences, Beijng 100190, China)
LIU De-rong
2
, ZHOU Tong
3
, WANG Cheng-hong
4
(2. College of Automation, University of Science and Technology Beijing, Beijing 100083, China;
3. Department of Automation, Tsinghua University, Beijing 100084, China;
4. Department of Information Sciences, National Natural Science Foundation of China, Beijing 100085, China)
Abstract: Deep reinforcement learning which incorporates both the advantages of the perception of deep learning and
the decision making of reinforcement learning is able to output control signal directly based on input images. This mech-
anism makes the artificial intelligence much close to human thinking modes. Deep reinforcement learning has achieved
remarkable success in terms of theory and application since it is proposed. ‘Chuyihao–AlphaGo’, a computer Go deve-
loped by Google DeepMind, based on deep reinforcement learning, beat the world’s top Go player Lee Sedol 4:1 in March
2016. This becomes a new milestone in artificial intelligence history. This paper surveys the development course of deep
reinforcement learning, reviews the history of computer Go concurrently, analyzes the algorithms features, and discusses
the research directions and application areas, in order to provide a valuable reference to the development of control theory
and applications in a new direction.
Key words: deep reinforcement learning; AlphaGo; deep learning; reinforcement learning; artificial intelligence
1 引引引言言言(Introduction)
谷歌公司的人工智能研究团队--深智(DeepMind),
近两年公布了两项令人瞩目的研究成果: 基于Atari视
频游戏的深度强化学习算法
[1]
和计算机围棋初弈
号
1[2]
. 这些工作打破了传统学术界设计类人智能学习
算 法 的 桎 梏, 将 具 有 感 知 能 力 的 深 度 学 习 (deep
收稿日期: 2016−03−29; 录用日期: 2016−06−21.
†
通信作者. E-mail: dongbin.zhao@ia.ac.cn; Tel.: +86 10-82544764.
本文责任编委: 苏剑波.
国家自然科学基金项目(61273136, 61573353, 61533017).
Supported by National Natural Science Foundation of China (61273136, 61573353, 61533017).
1
初弈号: 谷歌深智团队研发的计算机围棋程序, 国内有很多译名版本, 如“阿尔法围棋”、“阿尔法狗”、或昵称为“狗狗”、“阿发哥”等等.
本文翻译为“初弈号”, 取其“初级、围棋、机器”三大特征, 保留英文原文的朴素感, 也有充满自信、奋发图强之意.
评论