【博聞社】据媒体1月26日消息,谷歌Deep Mind公司CEO哈萨比斯在17日出席德国慕尼黑举行的DLD(数字、生活、设计)创新大会,宣布推出真正2.0版本的AlphaGo。新版AlphaGo的特点是摈弃了人类棋谱,只靠深度学习的方式成长起来挑战围棋的极限。哈萨比斯还说:新的尝试会给人类带来新的挑战课题,即“理解AlphaGo的手法,探索‘深度学习’方式的极限,臻至‘围棋之神’的境界”。. T, p1 m6 z3 M& [3 E; W k
AlphaGo 和李世石的“世纪之战”炒红了深度学习—— AlphaGo 采用了人工神经网络技术,充分挖掘了深度学习的潜力。简单来说,深度学习是一个包含了许多层级数据处理的神经网络,以自动化方式组合起来解决问题。( L! D% a2 B) I
0 i" U. i2 j% `, b0 R$ z. S
跨年之际,“新版”AlphaGo蒙面出现在中韩对弈网络,对人类顶尖职业棋手取得了60比0的全胜战绩,但此版本的AlphaGo还不是2.0版本。1.0版本的AlphaGo是“深度学习”人类棋谱得出围棋手数的估值,但1.0版本的AlphaGo所走招法其实并不脱人类理解,而且也是人类棋手曾下过的棋。如果1.0版本的AlphaGo完善了,就意味着得出了接近完美的围棋手数估值函数,而2.0版本AlphaGo就利用这个估值函数自我对局和“深度学习”,不再受人类棋谱的局限,下出真正属于“人工智能”的围棋。 9 u# [# d3 d% w% d5 r% y% S7 \. V, Q$ [( y/ g; h g; j
韩国亚洲大学电子工程学教授甘东根(音)说:“谷歌公司大概认为只依据人类棋谱很难真正超越人类的水准,所以寻找新的思路、新的突破口。但是仅靠自我学习能否得出水平更为高超的围棋AI,还有待观察。”* N) J) ?0 y3 n- D
8 t% P) p6 j. @8 r% ]# g4 `. P' U据悉,不仅谷歌Deep Mind公司,开发“刑天”的中国公司也在做相似的尝试。这家公司的另一款围棋AI“骊龙”,不依据人类棋谱只靠自我“深度学习”增长棋力。目前,“骊龙”在韩国“韩Q对弈”对世界顶尖棋手取得了80%以上的胜率,目前这一胜率还不如“刑天”的90%以上胜率。和“骊龙”交过手的一位职业棋手说:“棋风非常具有攻击性,变招很多。” ! Q4 L+ w* c4 y( w7 B1 Z' J' w4 y: U" J9 c* }$ d% E) K' u
此外,哈萨比斯在DLD(数字、生活、设计)创新大会上说:“AlphaGo为谷歌公司节省了电力消耗。谷歌数据中心每天的用电量惊人,我们就用AlphaGo的算法合理配置冷却装置。结果用于冷却装置的能源消耗减少40%,而整个数据中心的总电力消耗减少了15%。”哈萨比斯还说:“AI是培养人类的创造性,真正开发潜能的惊人的工具。人类和AI的能力结合起来,可以成就伟大的事物。” 2 O: H/ l v6 |: \. x9 E7 U ) N2 M) M j8 k. j1月20日谷歌创始人谢尔盖-布林出席瑞士举行的“2017达沃斯论坛”,他说:“很难准确估测人工智能的极限和影响力。但是人类通过人工智能,可以把时间用在更具创造力和有意义的事情上。”' c5 U* O. \( x L: V3 z% i. l& Q+ F( m