【深度】谷歌人工智能教父谈人工智能

   日期:2016-06-27     来源:搜狐    评论:0    
核心提示:当谷歌的Alpha Go战胜了人类顶级棋手,人工智能开始更多进入大众视野。无论是其深度应用还是可能存在的隐患,都是大家讨论的话题。

当谷歌的Alpha Go战胜了人类顶级棋手,人工智能开始更多进入大众视野。无论是其深度应用还是可能存在的隐患,都是大家讨论的话题。

即使是在科技大佬之间,观点也存在截然相反的情况。马斯克就曾表示“我们会在智力上远远落后于AI,以至于最终成为AI的宠物。”在另外一方面,Alphabet董事长施密特则表示:“如果你担心人工智能在智商上超越人类、然后消灭人类,那你科幻电影一定是看多了。”

在日前,福布斯记者彼得·海伊(Peter High)对人工智能教父杰弗里·辛顿(Geoffrey Hinton)进行了专访,他谈到了很多关于人工智能的看法。在他看来,神经网络正在向大脑靠近,AI的火爆不是因为其技术和原理,所谓的隐患更只是一个科技界的政治问题。他更是透露,Alpha Go拥有了直觉。

辛顿早在1970年代初期就开始从事人工智能科研工作,是名副其实的AI先驱。曾先后供职于萨塞克斯大学(位于英国)、加利福尼亚大学圣地亚哥分校、剑桥大学、卡内基梅隆大学、以及伦敦大学学院,现任多伦多大学荣誉教授。他曾获得过机器学习领域的加拿大国家研究大奖,该奖项为联邦政府给予科学研究的最高荣誉及财务资助。2013年3月,辛顿的公司被谷歌收购,其也随之加入谷歌。

人工智能教父杰弗里·辛顿(Geoffrey Hinton)

以下为主要内容:

神经网络正向大脑靠拢

海伊:多伦多大学的资料上显示,您一直致力于探寻一个高效的深度学习算法,像人类习得知识一样,能够从一个庞大且多维的数据集合中梳理其复杂的结构。我想请您就这方面谈谈您的看法,还有您在多伦多大学和在谷歌的日常工作方面。

辛顿:我们的大脑,毋庸置疑,非常擅于处理并理解多维的数据,例如从视觉神经传来的信息是百万级权重的并且随着时间极速变化的。我们每看到一个场景,大脑就能帮我们正确的解读。如果我们看到的是一头大象,那么大脑不会把它解读成一条狗。但是在实验室中,我们的神经网络系统偶尔会理解出错。虽然如此,在绝大多数情况下,我们的技术还是能够准确的理解某个多维的输入代表的意思。随着该神经网络进行的学习次数的增加,正确率也会提高,这是传统计算机所不能达到的,我们在向人类的大脑靠拢。这和单纯的对低维度、少量训练数据、参数不多的简单模型从统计学角度进行数据挖掘是有本质上的不同的。

大脑令我着迷的地方在于它所拥有的参数远多于训练数据,所以现阶段的人工智能网络还不能说非常成功。现阶段我们能做到的是,我们的神经网络系统可以很好地处理百万级权重以及百万级训练数据。有的时候,十亿级也可以处理很好。但是我们的参数数量并不能像人类大脑那样,远远超过训练数据数量。对于每一秒的输入,人类大脑大概有一万个参数来处理。对于人脑这样庞大的系统是如何工作的,以及它是怎样分析数据的,我们目前所知还甚少。

海伊:宏观的看,在人工智能的发展历程中,您觉得我们已经到达了什么阶段?

辛顿:我觉得我们已经跨过了一个很重要的门槛。就在不久之前,AI领域的大部分从业者还在通过逻辑来处理AI技术。这种人工智能还是基于逻辑推理的层面,对内部含义的表示采用的还是符号结构。现在我们拥有了这个庞大的神经网络,一切都改变了。我们现在的策略是,用巨大的矢量来表示内部含义,而且也不再采用逻辑推理的方法。我们是让这个巨大的神经网络自己学习,不再需要编程的介入。此前,人们觉得这简直是天方夜谭。

举个例子,拿一串英文字符及其对应的法文字符组成一对字符串对,如果有足够的字符串对的话,神经网络系统就能够自动习得这两种语言,如果你给它一个英文句子,它能基本无误的将这句英文转化为法文。现在这项技术还不是很成熟,但是目前神经网络系统已经能够掌握该方法的核心,只是在速度方面还有待改进,我相信很快该技术就能够付诸实际应用了。20、30年以前的人会觉得这个想法太可笑了,要让一个机器学习一门语言,你当然需要将大量的语义学,世界常识等信息进行编程。如果仅凭一些数据,但这些数据并没有包含该语言的实际知识,来让机器完全凭空、傻瓜似的、自动地学习,这在当时听起来有点可笑。现在,模仿神经网络这个概念被引进了,这个想法听起来就没有那么可笑了,因为大脑就是这样工作的。所以我说,我们已经跨过了一个很重要的门槛。现在大部分AI界的人,特别是年轻人,都相信如果你想让一个系统获得以百万比特为计量单位的知识的话,最好的办法就是让它自己学,靠手动输入是完成不了的。

海伊:所以说把逻辑推理的方式淘汰掉是因为你已经从这个疯狂幻想的边缘走到了技术的核心,而且这项技术也在发展且越来越规范。

辛顿:是的,在此之前我们之中的很多人都相信,如果有足够的计算能力以及数据,那么我们的设想就能实现,现在也确实实现了。现在我们的技术越来越成熟,如果能够获得更强的算力、更大的数据集合,那么我们的模型也就能被不断优化。这在一切都需要编程的时代是做不到的,所以神经网络系统比之前所有的AI算法都更高级。

坚信人工智能源于大脑的工作机理

海伊:我觉得很神奇,你从1970年代就开始研究人工智能了。你在1978年获得了爱丁堡大学人工智能方面的博士学位,并且由于当时计算机发展水平的限制,你的研究也受到了阻碍。这期间你也没有对那些反对者多加解释,哪怕他们可能会变成你的同事、投资人、或者可能会从其他方面帮助你。不知道现在这些研究人工智能的20多岁的年轻人是否意识到,自己是站在巨人的肩膀上,而正是这些巨人才是真正有远见卓识的人、排除掉这条路上所有阻碍的人。能不能谈一下是什么激励着你,让你拿到人工智能的博士学位之后依然将这项研究作为你未来的职业发展方向,毕竟在当时,如果你从事人工智能行业的话,成功的可能性并没有现在这么大。

辛顿:我觉得原因是这样的,大脑肯定有其工作的机理。大脑是怎么学习东西的?它是怎样利用那些简单的神经元来运算极其复杂的事情的?我主要的动力来自于,我相信,大脑的运行机制和当时数字计算机的运行机制肯定是不一样的,因为没有人在给你的脑子编程。

我记得在1973年,当时有人跟我解释,神经网络系统是永远不会实现的。他们说:“神经网络没法运行递归算法。”那个时候,递归算法被当作是智能的本质。看起来我只能演示给他们看。所以我开始给他们展示,神经网络是如何进行真正的递归运算的。这里真正的递归我指如何利用节点之间的连接强度来做一些事情。比如我们想要对这句话进行理解:John did not like Bill because he was rude to Mary。要理解这里面的从句部分“he was rude to Mary”,我们会用到将“He was rude to Mary.”这句话作为独立的句子理解时所用到的神经节点及连接。所以说我需要做的就是存储当前进行到的位置,离开主句开始理解从句,然后再回来。我要对此进行展示,那么我就要有这个神经网络系统,没有它就做不成。所以我开始搭建这个可以做真正的递归的神经网络系统,通过在神经节点之前设立临时权重来记录节点信息。我记得当时我跟我所在的科研小组提及过这个想法,但是他们不理解我为什么要做这个事情。有趣的是,我当时想要攻破的难题,现如今变成了非常流行的技术。几年之前,因为我们要探寻到底人类为什么可以自主学习,这个问题就流行起来了。所以说人类花了四十年的时间才意识到,神经网络才是我们要攻克的难题。

多领域专家实现深度神经网络成果

海伊:你在2004年成立了神经计算与自适应感知(NCAP)项目,将计算机科学家、生物学家、电子工程师、神经系统科学家、物理学家和心理学家聚集到一起,复制人脑的运行机制。这件事需要很多学科的知识作为支撑。您能讲讲找到这些学科的世界级大师并且成立这个组织的故事吗?

辛顿:没有人有必要是所有这些领域的专家,那太难了。你需要的是找到某个领域的专家,然后告诉他这个项目是什么。这样你就可以问他问题,省去了你翻阅资料的时间。例如你找到了一个神经系统科学家,你就可以问他诸如:“从一个点到另一个点有一个前向投影及其逆投影,那么有多少个神经元参与了这个回环?信息要从多少个神经突触间传递才能走完这个回路回到初始点?”要想自己搞明白类似这种问题,那你需要很多的时间来查文献,而且你不知道你正在查阅的文献是否可信。如果你有一个专家帮忙的话,直接问他,他就会给你答案。所以团队中有各个领域的专家是很必要的,能节省时间而且能少走弯路。

海伊:NCAP项目是邀请制的,所以说可能只有您和少数各学科的骨干成员才知道,就像你刚才说的,你们都知道成立这个组织的好处,可以节省时间又可以和不同学科的人工作。您能谈谈建立起这个组织的过程吗,您是如何兼顾在多伦多大学的教授工作以及在NCAP的研究的?

辛顿:首先,我在建立NCAP的时候没有想那么多,我只是想到把我认识的所有能够交流协作的人聚集到一起来做这个事情。选人的标准有三个:聪明、懂得交流协作、对神经系统是如何工作的这件事情感兴趣。因为我已经从事这项研究很多年了,在这方面积累了不少人脉,当我们聚集到一起然后我们发现,哎,合作还很不错。

海伊:从2004年以来,计算机的的运算能力不断增加,这肯定对您的研究有很大的帮助。那么您觉得,当前NCAP的研究成果是什么呢?

辛顿:NCAP目前已经有很多科研成果,不仅仅是神经网络方面,我们在共有的知觉与肌动控制领域也有研究。其中最具影响力的研究成果还属深度神经网络。在2004年左右那个时候,业界普遍认为要训练包含多层变量的神经网络是非常困难的,NCAP的大多数人也认为通过纯粹的监督训练是没有办法构建神经网络的。所以说接下来历史的发展其实有一些偶然性,我们开始将着眼点放在非监督训练上:如何在不知道整个网络应该输出的正确结果的前提下,逐层进行训练。每一层都在试图为其下面一层的结构和数据建模,我们称之为pre-traiNIng。这是一个能让深度学习继续发展下去的重要突破,有了这种技术,接下来深度神经网络的研究就容易多了。

后来人们就发现,如果有足够的算力和数据支撑的话,深度神经网络的研究可以摆脱上述方式。很多时候你有很多数据,例如大段讲话或者视觉数据,你就不需要pre-training了。但是pre-training确实是促使深度神经网络技术继续发展的原因。我们是首先知道了通过pre-training可以解决瓶颈,然后再去寻求摆脱pre-training的方式。我觉得,是因为由NCAP最先提出来的pre-training引发了很多其他研究人员将其作为突破目标。

人工智能火不是因为它的原理和技术

海伊:采访了这么多期人工智能领域的领先人物,我发现让我惊喜的是很多相对新的组织都将目光放得很长远,制定战略也都是基于长期的考虑,他们更倾向于选择不期待短期回报的投资者。有很多组织将自己定位成非盈利机构,这样能够让他们将技术的研发作为首要任务。这真的很少见,也很幸运,这么多的顶尖人才纷纷将目标定在历史发展而非短期盈利上。对此您是怎么看的呢?

辛顿:是的我有几点想说。首先,不光有技术,还要有应用。现在神经网络这么火不是因为它的原理,而是因为它真的可以做事情。像语音识别、物体识别、机器翻译等这些应用都很震撼,人们也更乐意朝这方面投钱,来支持这方面的基础研究。

我觉得,“以营利为目的”比“非营利”更加复杂,举个例子,谷歌给大学投钱用来做基础研究,这很好,对于大公司来说这非常重要。因为大学培养出来的高质量的毕业生可以为他们所用,所以大公司乐意投钱给大学做基础研究,公司也能从其中受益,所以说其中的关系是很微妙的。

在大学里面,有很多政治方面的压力,在英国、美国、加拿大都有,这些政治压力让研究更偏向于应用。这样政客花这笔钱有很好的理由:“我们投这笔钱是因为在五年之后就能回本,就能为社会提供工作机会,或者说五年之后就能盈利。”这不是做基础研究的正常的路线。真正有价值的研究一定是出自于对未知的好奇。所以说给大学投钱做应用型研究在我看来是一个错误。我觉得大学就应该做基础研究,应用方面应该由公司做。让大学研究更倾向于应用的,这在自然科学领域是说不通的,是不对的。这只是对政客或者一些科学界的管理者来说是有利的,因为卖相好。

谈谷歌人工智能,Alpha Go有了知觉

海伊:现在您在学术界和应用界之间架起了桥梁,在您工作了多伦多大学任教的同时也加入了谷歌。我了解到你在多伦多大学的时间大概是从早上9:30到下午1:30,在谷歌办公室的时间是2:00-6:00。两边都兼顾到了。能说说这两份事业之间的联系与不同吗?

辛顿:我在谷歌的位置很特殊,我不再从事我之前从事的研究工作了。我在神经网络领域工作了很多年,所以我经历了很多想法的产生与被否定。当时有很多想法被否定是因为计算机还不够强大。我现在的工作是给谷歌神经网络团队提供有可能会给他们现在的工作带来启发的旧的想法,用我多年以来形成的对于正确解决方法的灵敏的嗅觉来帮助他们做事情。现在我在做的是,为谷歌提供对于基础研究具体可行的应用模式。这和大多数谷歌员工所从事的对于某一个应用的具体开发工作是不一样的。在Deep Mind部门(就是做出Alpha Go的那个部门),有很多员工做的事情就是发现新方法。在神经网络团队,会有人专注于基础科学的研究以及神经网络的新算法的研发工作。

海伊:您提到了Deep Mind部门,在此前Alpha Go和李世石的围棋对战中被广泛讨论。您觉得这场对决的重要性在哪里?标志了现有的科研成果?吸引更多的人从事人工智能研究或者开设公司?能谈谈您对这个问题的看法吗?

辛顿:Alpha Go很有意思的事情是,它拥有一种普通计算机所没有的东西,那就是直觉:观察棋盘,然后选择一个正确的地方落子。为什么选择这里?因为感觉这里对。这是神经系统和之前的以逻辑运算为基础的人工智能的不同之处,之前的人工智能都太理性了。事实上,我们现在要做的是,逐步的将神经网络覆盖到以前逻辑运算AI的应用范围中去,因为我们现在已经拥有了有直觉的计算机。

人工智能隐患的真正所在

海伊:太棒了!很多投资人的投资引发了人们对人工智能的安全问题的担忧。人们想要确认随着这一领域的发展,人工智能带来的隐患是否可以控制。您对于人工智能为我们带来的机遇和同时产生的隐患怎么看?

辛顿:我来拿挖掘机来做一个比喻,挖掘机在路上挖洞的速率远比人工挖洞要快,与此同时,挖掘机也可以敲爆你的头。很显然,当人们设计挖掘机的时候就已经考虑到如何能够控制它,不致于敲爆路人的头。我觉得这在计算机领域也都是一样的。我们在研发人工智能的时候会考虑到什么情况会发生意外,把所有会被居心叵测之人利用或者被误用的可能性都考虑到。

很显然所有的高科技都有可能被误用,然而会不会被误用,这取决于政策法规的限制。其实你害怕的是政客用人工智能作为武器,所以我觉得这不是科技本身的问题。无论如何人工智能行业都会继续发展,会不会被用在对人类有利的地方,这取决于政策。就像自动应答机一样,当时自动应答机出现的时候,很多银行的员工因此丢了工作,他们当时肯定有怨言。但是现在再回头看这件事,没有人会说:“我们不该启用自动应答机。”因为它的出现更方便,而且替代了简单的重复工作。当时被替换掉的很多人也都找到了更有意思的工作。我觉得这和现在的情况是一样的。

 
  
  
  
  
 
更多>同类资讯
0相关评论
 
全年征稿 / 资讯合作
 
 
 
推荐资讯
可能喜欢