请选择 进入手机版 | 继续访问电脑版

超级大本营军事论坛

 找回密码
 加入超大军事

QQ登录

只需一步,快速开始

查看: 2676|回复: 1
收起左侧

吴恩达对AI的看法或太乐观!一位深度学习权威质疑者:AI研究在很多领域正停滞不前

[复制链接]
头像被屏蔽
发表于 2017-4-7 00:06 | 显示全部楼层 |阅读模式

更多精彩专业军事内容,期待你的加入!

您需要 登录 才可以下载或查看,没有帐号?加入超大军事

x
吴恩达对AI的看法或太乐观!一位深度学习权威质疑者:AI研究在很多领域正停滞不前麻省理工科技评论2017-04-02 23:27:38
本文属于Emtech Digital人工智能峰会独家精选
  编者论:有一位著名的深度学习质疑者近日在EmTech Digital人工智能峰会上发表演讲。其中,关于业界权威吴恩达对于通用人工智能的一些观点,这位在学界和产业界都有着一定声望的质疑者毫无保留地进行了评论。
  质疑归质疑,质疑本身并不是问题。但我们看完这篇文章也可得出一个结论:在人工智能已经进入全民疯狂炒作的当下中国,我们其实很需要冷静下来对AI做些真正的、有意义的思考和研讨。
  
  在 20 世纪 40 年代,唐纳德·赫布(Donald Hebb)提出了一个关于大脑中神经元如何学习识别输入的理论。他的研究表明,神经元的重复放电可能会加强它们之间的联系,因此再次遇到同样输入时会增加再次放电的可能性。
  一些研究人员采用了类似的设计构建的计算机,但是这种所谓的“神经网络”受到了很大的限制。直到1986年,一组研究人员才找到了提高学习能力的方法。
  同时,研究人员还表明了神经网络可以处理很多问题:从视觉数据中的模式识别,到英语动词的过去时识别等等。用足够的数据样本来训练神经网络,它们就能形成执行某些任务所需要的联系。
  这些研究人员将他们的方法称为“联结主义”(connectionism),并认为只要有构建足够大的神经网络,就能构建机器智能。尽管他们的想法并没有立刻颠覆人工智能学界,但最终却促成了今天的深度学习时代。
  
  45岁的 Gary Marcus 是纽约大学的心理学教授,同时也是人工智能创业公司 Geometric Intelligence 的联合创始人,这家公司后被Uber收购。
  然而,今天我们介绍的这位 AI 领域著名研究者、认知科学家Gary Marcus却是深度学习的著名质疑者。他经常对 AI 领域中过度依赖数据的操作方式加以批判,在行业中频频引发争议和讨论。
  实际上,Gary Marcus质疑深度学习的核心观点非常简单:识别并不等于理解。他认为,因为深度学习系统需要大量的数据样本,所以研究人员通常不得不向机器学习系统提供不计其数的对话样本,以训练出能够与人自然交流的机器,这可能会使机器能够进行简单的会话。然而,认知科学却表明,这并不是人类掌握语言和进行交流的思维方式。
  相比深度学习,两岁的孩子能够通过推理和泛化来学习——这些学习方式虽然并不完美,但是却比深度学习复杂的多。目前很清楚的是,大脑不仅仅可以从大量数据中进行模式识别,它也可以从相对较少的数据中获取更深层次的抽象概念。
  Marcus 认为,如果要创造出真正复杂的人工智能系统,研究人员必须从小孩子学会概念并学会概括的过程中获得真正的启示,然后将这些启示所孕育的基本原理用于机器学习系统设计,创造出以更新、更好的方式去学习的人工智能系统。
  
Gary Marcus对谈麻省理工科技评论出版人兼总编Jason Pontin
  在刚刚闭幕的EmTech Digital人工智能峰会,DT君认为,最令人兴奋的恰恰是来自AI研究领域一线大咖们提出的多元化的研究方法。除了最主流的深度学习外,诸如基于概率编程的Gamalon、基于认知科学的Geometric Intelligence等。这些公司为不仅为人工智能的研究提供了全新的思路和方法,更是大有挑战主流深度学习之势。
  同样,本届EmTech Digital数字峰会上,Gary Marcus风格犀利依旧,精彩的演讲同样迎来满堂彩,尤其将吴恩达关于AI的观点做了比较深入的评论,让人印象深刻。而这次演讲的主题是很多人所关心的一个问题:通用型人工智能什么时候会到来?
  以下是DT君独家的Gary Marcus演讲精彩内容:
  通用型人工智能何时到来?这个问题我从上世纪80年代早期就开始考虑了。1966年,就有人开始说这个话题了。最早关于这个问题的相关研究是麻省理工学院一群本科生做的一个名为“Summer Vision”项目。
  
1966年,麻省理工学院关于人工智能研究的“Summer Vision”计划
  2012年,有人指出,通用型 AI 马上会出现。雷·库兹韦尔(Ray Kurzweil)最近给出了一个确切年份:2029年。而今天未到场的吴恩达(Andrew Ng)也经常对这个问题发表观点,他说过,通用型人工智能可行性不大,距离我们还非常远。但是,最近他似乎又改口了的,说:“通用型人工智能现在或者不久的将来就会到来”——反正他两头都说了(笑)。
  
  然而,当前的AI究竟到了什么程度?举个图像识别的例子,人类能很容易的识别出一辆摩托车、一群打球的人,同样,Google AI也能做到。
  但遇上下面这张图时,人类依旧可以在瞬间识别出这是一个贴满贴纸的路标,但Google AI却将其识别为一个装满食物和饮料的冰箱。因此,短时间内识别复杂图像,这对 AI 来说还是非常困难。
  
  我们很清楚,计算机在做识别时的原理是用大数据支持的统计近似值,使用的是杨立昆(Yann LeCun)的卷积神经网络。如果AI涉及的所有任务都是分类工作,这套方法其实还是凑效的。
  
卷积神经网络
  但当一张图片需要一些除了分类之外别的角度才能看懂时,机器就出问题了。比如,下面这张一只狗举杠铃的照片,电脑可能连狗都识别不出来,因为狗是倒着的。
  
  众所周知,AI这个概念在以前是出过问题的。上世纪50、60年代,AI的发展曾激动人心。但在1973年,AI这个概念几乎死掉了(如下图),James Lighthill在这一年向英国科学研究委员会提交的AI调研报告中列出的理由是:AI应用领域太窄;无法规模化;真实应用场景非常有限;英国AI研究无法筹措经费;第一个AI寒冬来临。
  
1973年Lighthill人工智能研究报告
  但 34 年后有什么改变吗?当然,目前我们在标准口音、安静环境下的语音识别、限定场景下数量不多的物体图像识别、特定领域的自然语言处理等方面做得还不错。但如果把这些要求提高一点,变成:对话界面、自动化科研、自动化诊疗、家用机器人、安全可靠的自动驾驶这些应用后——AI目前还没有实现较好的应用。
  
  吴恩达曾表示:“如果一个普通人可以只花少于1秒的时间完成一项脑力任务,我们或许在现在、或不久的将来就可以通过AI将其自动化。”
  但我则希望把这句话改成:“如果一个普通人可以只有少于1秒的时间完成一项脑力任务,而且我们搜集了海量相关数据,而且只要测试数据与训练数据的差别不会那么大,而且该领域不会随着时间推移而发生太大变化,那么我们可能会有那么一点点几率通过AI将其自动化。”(全场鼓掌)
  我觉得,我加的这些前提条件是客观的,你们愿意把PPT拍照发Twitter,我完全没问题,你们就喜欢这种东西(全场大笑)。
  
  吴恩达观点 PK Gary Marcus观点。无疑,Marcus觉得,吴恩达的观点有点激进,需要加非常多的定语来限制。
  AI目前有些比较成功的应用,比如广告的精准投放——非常挣钱的行业。但我们花那么多人力和财力来研究 AI 并不是用来干这个的。治疗癌症、模拟人脑、可靠的家庭机器人、安全的自动驾驶,这些才是需要突破的地方。
  从 1980 到 2017 年,AI 有很大的发展,每一个领域都有进步,尤其是在语音和图像识别方面。但目前的状况是,有些领域的研究实际上已经停滞不前了——这才是我对AI发展最大的担忧。
  
除了在语音和图像方面取得的进展,其他领域的AI研究并未有好的解决方案
  我的这种担忧是有原因的。AI 现在的问题,我认为,第一个是 Peter Norvig 在去年 EmTech Digital 数字峰会上提到的:采用工程方法去做机器学习是非常困难的,因为AI系统中的错误很难被核验、校准、修复。
  第二个问题是:统计信息不等于知识。我很担心,从事机器学习研究的人不知道什么是知识工程(Knowledge Engineering),而知识工程是建构专家级系统和其他类型知识库程序的重要工具。这就是一个很大的问题。但实际上,我认为,我们其实并不需要海量的数据也能解决很多问题。
  所以,我个人认为,AI的下一次技术爆发需要这些条件:
  · 跨领域全球性合作,类似欧洲核研究组织(CERN)的机制;
  · 来自不同领域的专家,比如程序验证方面的;
  · 认知神经科学家的参与;
  · 语言学家的参与;
  此外,我还建议,多研究研究我们的孩子。这是我三岁的女儿Chloe(下图左),这两年她在语音学习方面有很大的进步——孩子们正在逐渐形成一个世界观或者一套理论。以 AI 研究的角度看,孩子们在主动学习、新鲜事物探索、强化学习、自然语言理解,以及常识推断方面的能力是非常强的。
  
  但是,我们做AI并不是按照这种方式,AI现在只是处理输入的数据,但是小孩有一套机制和自己的理论。比如说,孩子碰到一个困难,他们会对这个困难产生某种概念,而机器只是简单的记忆。
  那么,机器和人类的认知过程到底差在哪?进化会给我们很多启发。人类生来就有智慧,对时间、空间、物体都有很强的理解。人类对物体进行分类,从而产生规则和认知过程,同时产生符号学——而机器目前而言唯一能做的就是数据输入与输出。
  
Gary Marcus在EmTech Digital数字峰会上发表演讲
  最后,DT君也向Marcus提了一个问题:随着神经网络技术的成熟,从云端往本地走是否是趋势?我们多久将不再需要云了,完全靠本地运算解决问题?
  回答:云端AI解决方案往本地设备转移将是趋势。但目前来看,云端AI服务其实是一个累计数据和计算模型的过程,只有当累积了足够的数据和成熟的算法时,往线下转移才成为可能。
  另外,目前的本地设备计算能力还不足以支撑 AI 应用,云端的数据累积正好为本地计算能力的发展提供了一个空档期。但这一趋势的最终实现恐怕还需要数年时间,具体是多久我也没法评估。
  
Gary Marcus的著作《代数的头脑》(The Algebraic Mind)
MIT Technology Review 中国唯一版权合作方,任何机构及个人未经许可,不得擅自转载及翻译。

http://it.sohu.com/20170402/n486209632.shtml


最具影响力军事论坛-超级大本营军事论坛欢迎你!超然物外,有容乃大。
发表于 2017-5-4 09:43 | 显示全部楼层
对于大众来说。噱头可能对某项技术的推广更有刺激作用,但对于研究人员来说更需要的是严谨的思考,而不是为了迎合大众或为了获得某种荣誉来制造噱头。
最具影响力军事论坛-超级大本营军事论坛欢迎你!超然物外,有容乃大。
您需要登录后才可以回帖 登录 | 加入超大军事

本版积分规则

存档|监狱|手机|联系|超级大本营军事论坛 ( 京ICP备13042948号 | 京公网安备11010602010161 )

声明:论坛言论仅代表网友个人观点,不代表超级大本营军事网站立场

Powered by Discuz © 2002-2017 超级大本营军事网站 CJDBY.net (违法及不良信息举报电话:13128905500)

最具影响力中文军事论坛 - Most Influential Chinese Military Forum

GMT+8, 2017-10-23 06:48 , Processed in 0.029275 second(s), 6 queries , Gzip On, Redis On.

快速回复 返回顶部 返回列表