旗下微信矩阵:

AI之忧:从疯狂到泡沫

对于这些研究结论,或许身处其他领域的人会觉得比较有趣,但其实在专业人士看来,根本就是毫无新意可言,也算不上是突破性发现。
2018-08-05 12:25 · 猎云网  田小雪   
   

  去年六月,Facebook人工智能研究部门的五位研究员联名发表了一份研究报告,主要介绍了机器人如何能够模拟谈判性质的对话。

  虽然在很大程度上,机器人确实能够保证对话的连贯性,但研究员发现那些软件也会偶尔说出一些奇怪的话,比如“对我来说、对我来说、对我来说、对我来说,球没什么用。”

  看到这些研究结果之后,Facebook人工智能团队便清楚地意识到,他们没有能够在日常口语的参数范围内,对机器人说出的话语进行有效限制。换句话说,他们只是研发出了一种仅限于机器人相互之间使用的独特机器语言。而对于这些研究结论,或许身处其他领域的人会觉得比较有趣,但其实在专业人士看来,根本就是毫无新意可言,也算不上是突破性发现。

  AI 恐慌之初

  就在那份研究报告发表之后的一个月,国外知名新闻媒体又发表了一篇名为《人工智能正在投资那些人类无法听懂的语言,我们是否应该阻止这种趋势?》的文章。

  具体看来,文章主要讲了机器人时常出现的偏离日常英语交流的问题。虽然这并不是上述研究报告的主要结论,但外媒文章表示,在发现机器人已经开始以一种全新的语言进行交流时,研究人员认为它们发展到了一种失去控制的地步,从而决定叫停整个实验。

  该文章一经发表,便迅速传遍了整个网络,导致大量缺少创新报道内容的出版商开始跟风,纷纷说Facebook的工程师是因为机器人以一种独特语言进行自主交流出现了恐慌,从而叫停了人工智能项目的研究。甚至还有媒体指出,这一现象简直就是电影《终结者》在现实生活中的重现。因为在这部电影中,有一个机器人在有了自主意识之后就对人类发起了战争。

  Zachary Lipton是卡耐基梅隆大学机器学习部门的助理教授,看到这篇本来还算有点儿意思的文章逐渐成为各家媒体博得关注的噱头,他不禁产生了一丝沮丧之情。

  根据Lipton的介绍,近些年来,广大民众对“机器学习”和“深度学习”这类话题是越来越感兴趣。但与此同时,也导致了不少“趁虚而入”的低质新闻报道现象出现,对人们正确理解相关研究报告以及行业发展前景带来了负面影响。用他的话说,这就是人工智能错误信息的蔓延。

  其实,除了Lipton,还有很多该领域的研究人员也是感同身受。他们担心关于人工智能的猜测性虚假报道,将会促使人们对该行业的发展前景抱有错误预期,最终威胁到该行业的发展进步以及相关新兴技术在现实生活中的高效应用。

  事实上,媒体对于计算机智能的夸张报道,并不是我们这个时代独有的,早在计算这个概念最开始出现时就已经有了。

  1946年2月,校车大小的电子数字积分计算机(即Electronic Numerical Integrator and Computer,以下简称Eniac)正式在一次新闻发布会上亮相。当时,记者们纷纷将其称作“电子大脑”、“数学怪人”以及“天气预测者与控制者”。为了让大众真正理解这一新机器,不再受虚假夸张新闻的误导,英国著名物理学家DR Hartree在《自然》杂志上发表了一篇文章,以一种直接、真实、简单的方式讲述了Eniac的运作方式。

  但让他感到沮丧的是,《伦敦时报》在他的研究基础之上,又刊登了一篇名为《电子大脑:解决深奥问题、带有记忆阀门》的文章。随即,他便给《伦敦时报》的编辑写了一封信,说是“电子大脑”这一术语会误导读者,并且声明机器是无论如何不能代替人类大脑思维的。但可惜的是,他的努力最终还是徒劳。在媒体眼中,Eniac的身份以及定义,永远都停留在“大脑机器”上。

  同样在美国,情况也相当类似。Frank Rosenblatt是康奈尔航空实验室的工程师和心理学家。1958年,他在《纽约时报》上发表文章,正式提出了一种名为“感知器(perceptron)”的基本机器学习算法。虽然按照设计,这种算法只能够识别出来少数几种模式,但《纽约时报》却将其称为“电子大脑”,说是它可以实现自我教学,用不了多长时间就能走路、说话、写作、繁殖再生,同样也能充分意识到自己的存在。

  固然,人工智能可以带来令人陶醉的喜悦,也可以为大学和军队中的研究人员带来大量资金支持。但到上世纪60年代,不少人工智能行业先驱就已经很明显能够看到,一直以来他们都低估了在机器中模拟人类大脑这件事的困难程度。

  1969年,曾经公开表示机器智能终将会超越人脑的Marvin Minsky,与计算机科学家Seymour Papert联名出版了一本书,以证明Rosenblatt的感知器算法无法完全实现之前相关专家们的设想,而且还表示其智能程度远不及媒体所宣传报道的那样。

  二人的书一经出版,便迅速在人工智能研究领域和其他领域传播开来,猝不及防地掀起了一股揭开人工智能真实面目的全新潮流。1972年,知名哲学家Hubert Dreyfus针对这一技术和行业的发展,发表了一篇影响深远的长文,名为《计算机所无法胜任的事情》。

  一年后,英国知名数学家James Lighthill又针对机器智能的发展现状公开了一份调查报告,并且得出结论说在整个人工智能和机器智能领域,所有截至当时的创新发现都没能像预期那样产生重大影响。

  自此,人工智能迎来了自己的*个萧条期,也就是*寒冬。

  在那期间,几乎所有的相关研究都无法顺利拿到资金支持。就连一直以来热衷于用“电子大脑”博得大众关注的新闻媒体,也失去了报道兴趣。虽然后来在80年代到90年代期间,人工智能出现了略微的回暖迹象,但还是在一定程度上摆脱不了过时、科幻的标签。要知道,一直以来,计算机科学家都在努力避免人工智能与这些词语沾上边,因为他们担心大众将自己当成白日空想家。

  AI 的第二个春天

  直到新一代研究人员开始发表文章,介绍一项名为“深度学习”的新技术在现实生活实现了成功应用时,人工智能才算是真正顺利度过了自己的*寒冬。

  虽然从本质上来说,“深度学习”仍然是一种与感知器算法高度类似的数据统计技术,但它在计算能力和数据集容量上均得到了大幅提高,所以在诸如话语识别、图像识别和语言翻译这类实际任务上,有了广阔的应用前景。

  随着关于深度学习的正面研究报告越来越多,选择学习机器学习课程的大学生也越来越多。各家企业也纷纷开始斥资数十亿甚至数百亿美元来寻求高端技术人才,与之同时小型初创企业也开始积极拓宽深度学习的应用领域,包括交通运输、医疗健康以及金融财务等。

  伴随着深度学习的火热,各家新闻媒体又在寂静了相当长一段时间之后,开始了之前那种对人工智能的狂热报道。2013年,John Markoff在《纽约时报》上发表了一篇关于深度学习和神经网络的文章,标题为《像人脑的计算机:从经验中学习》。Markoff表示:“在未来几年中,深度学习将会催生新一代人工智能系统,完成一些简单的人工任务,包括看、听、说和操控等等。”

  自那以后,我们几乎每天都能在新闻媒体上看到一些关于“人工智能世界末日”、“人造大脑”、“超人工智能”以及“Facebook惊悚人工智能机器人”的夸张报道。

  为了挑战自己,Lipton当时就决定继续攻读机器学习的博士学位。他介绍说,随着越来越多的新闻媒体开始报道一些夸张的内容,研究人员心中的失望和沮丧之情也就越来越明显。因为在他们看来,那些记者对深度学习这项技术的了解着实非常浅薄。

  抛开记者在深度学习技术方面的浅薄了解不说,Lipton发现最令人生气的地方在于,那些一无所知的社交媒体居然都自称是“人工智能影响者”。事实上,他们所做的,无非就是在自家网站上介绍介绍埃隆·马斯克,内容质量低下却吹得天花乱坠。用他的话说:“想要在人工智能领域取得实质上的进步,首先需要保证广大受众了解最为真实、最为正确的信息。但很可惜,现阶段,呈现在大众面前的,完全是一些与真实情况不符的信息。因此,他们根本就没有办法彻底区分哪些是重要的信息,哪些是不重要的信息。”

  AI 泡沫的担忧

  当然,Lipton也不是*个对人工智能发展泡沫表示担忧的人。去年,美国机器人制造*专家Rodney Brooks撰写了一篇文章,批评了人工智能行业对于未来发展前景的过度臆想。2013年,纽约大学教授Gary Marcus也写了一篇文章,指出不真实的泡沫会导致人们对该行业的发展前景产生虚假预期,从而导致另一个寒冬的到来。

  不过,在这个问题上,Lipton持有不同态度。他认为,现阶段的夸张泡沫还不太会导致下一个寒冬的出现,但却会误导人们的认知,致使最为重要、最为迫切的问题遭到掩盖。他表示:

“对于错误的事情,大家都很害怕。我们能看到,不少政策制定者都会非常急切地开会讨论机器人的权利问题,而不是歧视问题,就因为后者过于泛泛,感兴趣的人比较少。”

  去年三月,Lipton开通了自己的博客,希望能够通过自己的力量来“反抗”那些带来较大负面影响的不真实的人工智能新闻,比如关于埃隆·马斯克以及Anthony Levandowski人工智能教堂的低质新闻消息。

  目前,Lipton的博客已经收到了一些新闻媒体的关注,也培养了一批固定读者。但他清楚地知道,自己能够产生的影响终究还是有限的。用他的话说:“其实,这个行业真正需要的是大量训练有素、诚实正直的记者。在实现这一点之前,我自己的博客永远都像是沧海一粟,像是一粒无法激起千层浪的微小石子。”

  为 AI 正名

  Joanne McNeil是一位专注于新兴技术的专栏作家,她也认为科技行业新闻记者的专业素质确实有待提高。虽然她经常在Twitter上取笑一些带有《终结者》风格的文章,但还是会避免言辞尖锐地直接批判科技记者。因为在她看来,人工智能的虚假泡沫之所以会出现,其中一个原因就是资源分配的不均衡。

  她表示:“如果你将一位记者的收入与一位研究人员的收入相比,就会很快发现记者无法写出具有专业深度文章的原因所在,毕竟他们终究不能与研究人员相提并论。说实话,具有专业技术素质的记者和编辑,数量少之又少。如果人工智能研究人员真的在乎记者写出来报道的内容,那至少应该共同参与到新闻撰写、报道或出版的过程中去。同时,适当提高记者的收入,毕竟他们要花大量的时间和精力,去深度挖掘与之相关的专业知识。”

  就像澳大利亚国立大学工程学和计算机科学教授Genevieve Bell所说,只有新闻记者和研究人员进一步加强彼此之间的合作,才能够有效引导整个行业往正确的方向发展。纯靠暴力压制人工智能虚假泡沫,根本就是一件不可能的事情。Bell解释道,因为关于电子大脑或Facebook恶意机器人的文章,并未切实关注真正的技术,只是大众文化希望和焦虑的反映。

  她介绍说:“数千年来,我们所讲述的都是一些关于无生命事物的故事,这也就影响了我们对当下行业发展现状的认知方式。或许专家可以不考虑他们所进行研究给大众留下的印象,但那些不现实的期望或无由来的恐惧,总归是存在的。所以,说到底,夸张和泡沫就是一种文化表现形式,我们没有办法彻底不予考虑。”

  最后,Lipton表示,现阶段,不真实的猜想和真实的研究之间,界限非常模糊。但历史告诉我们,这种模糊的界限终究是要明确起来,以便我们合理区分哪些是重要之事,哪些只是虚幻。

【本文由投资界合作伙伴猎云网授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。