旗下微信矩阵:

人脑入侵、人机恋爱……博鳌论坛的2045年命题作文

人类几千万年的进化,对异性的选择和我们的生命生存繁衍非常接近,并不认为我们做出这样一个机器,做出赋予生命权的机器很难,不被接受,做出一个有生命,还能发生自我认知,还有情感的机器,从技术上来讲也是做不到的事情。
2017-03-27 07:22 · 钛媒体  钛媒体   
   

  在昨天(3月25日)举行的博鳌论坛上,举行了一个关于“未来狂想”的圆桌论坛,包括搜狗公司CEO王小川,博士、研究员山世光,神经科学家、《知识分子》主编鲁白,ofo共享单车创始人戴威,作家、雨果奖得主郝景芳在内的多位各行各业的大佬,都站在各自的视角对于未来人工智能在法律、伦理、功能等方面的问题进行了探讨,试图给出一份未来智能社会的“2045年命题作文”。

  未来属于自动驾驶,开车会成为一个复古运动

  山世光认为,自动驾驶终将会实现,因为驾驶行为是非常依赖于经验,进行学习的一种行为,而机器通过学习成百上千的驾驶行为,一定是可以超越人类的。在他看来,自动驾驶的障碍在于汽车异常、失灵等等异常的问题,因为这些数据收集起来相对比较难。但无论怎样,自动驾驶的到来,不会熬到2045年。

  对于人开车的权利与云端控制汽车的选择上,戴威认为汽车最终会演化成为公共的交通工具,以后相当于用中央控制的调度系统。未来大家不会买自己的车,都是用公共的服务,不管是什么样的车,你都可以通过平台拿过来,享受它带给你的便捷服务,我觉得用不了2045年,可能是2030年。

  董痒认为路上同时有人开的车和无人驾驶的车会很危险,而且让人知道自己每分钟在哪里,是很不愉快的事情。陈晓楠也认为,这样多的大数据存在,基本没有隐私可言。而胡嵩未来不会用云的方式实现自动驾驶,因为这有点“天网”的感觉,“突然觉得人类这些物种不值得存在怎么办”。

  人工智能“创作”是没有问题的,问题是艺术是什么

  关于人工智能创作的艺术,郝景芳认为它写小说、写诗、画画都不难,因为这里面存在一定的公式和套路,大数据学习和上千万本小说,确实能写。但*的问题在于评选的人,是谁来评这个事情。在审美的问题上是否也存在着套路,人类作为主观评价者,对人工智能作品好坏的标准在哪里?还有就是人工智能评选是否也会成为一个标准呢?

  在鲁白看来,不按照大数据,不按照套路来讲,这才是一个好的小说,很难想人工智能真的会“创造”和“想象”。陈罡也不同意郝景芳的观点,他认为

机器和人创造的东西是人和艺术的两极。机器和人创造的东西是人和艺术的两极。技术可以标准化和规模化,艺术大多数是*性,不可复制的。梵高画向日葵的时候是情绪达到顶峰,如果情绪完全可以复制,没有传世的珍宝和传奇。

  同时,文学、音乐、美术都是源于生活,并且高于生活的艺术,它要去体验,掺杂个人情感和经历,综合出*的体会。

  Ben Goertzle认为,2045年的人工智能将会是另一番光景,AR可能获得雨果奖,因为核心功能在改变,它会是具有想象力和创造力的人工智能,不仅仅是重复科幻作家的公式。

  但是王小川不同意这样的观点,他认为做到用语言表达,已经实现了强人工智能,很多创作在他看来只能说是“计算”。

  关于机器人的意识与生命权,理解上存在着分歧

  在王小川看来,如果机器人有自我意识和情感,核心就是它有生命,意味着它有自己存在和延续下去的能力,延续下去才能找到我是谁。在机器威胁论的时候,核心的判断标准是机器是否有生命。

  鲁白则不同意这种看法,他认为需要给声明下定义:“生命的定义是两条,*条能够新陈代谢,有生游思,另外一条是它可以有法律保护的权利”,问题焦点在于人工智能有没有可能复制。

  王小川认为,机器人能够适应环境变化,在环境面前可以保存自己,像是杯子敲碎了就不能适应环境。他认为人类可以避免赋予了机器生命权,同时他觉得,人类离着创造生命,并理解它还很遥远,所以这是既没有能力又没有动力做的事情。

  洪小文认为,人可以造人,又有意识,又有生命。但是制造机器人,为的就是让他们听人类的话,并不一定非要有意识和生命权。

  在山世光看来,人类不需要考虑生命的问题,“从实现人工智能的角度,我们想要机器能够自我迭代和成长,我们不希望它有自我的价值和保护自己”。“从程序设计和编程来讲可以给它一个目标函数,让自己可以生存下去”。

  大脑功能可能外延化,但*不要变成人机混合体

  陈罡认为未来会有一种“云外脑”的产品诞生,它在某一个领域有更加深度和更加丰富的知识理解,同时它会像手机一样携带方便,而且每一个都有很强的个体属性,会成为人们私人财产很重要的一部分。

  在鲁白看来,脑子部分的功能外延化,应当是2025年就会实现的技术。把外界的刺激或是信息装到脑子里,在不远的将来就会实现,把脑子里的事情导出来这个也不是很难。

  关于芯片能否需要具备计算能力的问题上,山世光认为在人体里植入机器或者在机器里植入人的意识很可怕,这会生成混合体。董痒认为这样的做法,会演变成为一种新的军备竞赛。

  而Bee认为,如果能将想法直接放入到脑海中的话,计算能力会超过了人类脑子的意识,

每一年机器的力量部分会增加,会成为90%的机器和人,机器的部分超过了人的部分,但这是逐渐增加的,你不会觉得可怕,这是一步步变化的,比如说我现在是一岁,每天会进展一点,最后我会变成99%的机器,10%的人,不插入芯片的人会成为智障。

  洪小文则认为2045年不会先进到如此的地步,人类对于大脑的了解还不够,做做助听器还是可以的。山世光则认为大家对于现在的脑机接口存在着误解,

实际上它只是对大脑间接的测量,测量方式在进行脑活动的时候有一个脑电波的活动产生,人们只是测量脑的活动带来的脑电波的变化,但是并不告诉我们记忆是如何存储,大脑如何活动,谈不上如何去写脑,谈不上记忆如何储存。

  对大脑进行入侵性的刺激,植入某种情绪

  鲁白认为,情绪控制的情绪环路已经相当的清楚,现在没有实现的是非入侵性的实验,比如一个电机进去可以产生某种情绪,一个人被控制了自己都不知道。

  山世光也觉得这样的事情是有可能实现,但是影响人的大脑活动的装置或是场景会是十分的复杂。陈洲认为,负面刺激并没有多么科幻,但是要给大脑发送一些信息,到了2045年也不可能实现,神经学和生物学没有进展的那么快。

  陈天罡则是持有反面的观点,他认为这是一个社会化的问题,比如大家通常在洗脑的环境里面,这个环境还用投票吗?

  在董痒看来,现在大脑接收什么东西,洗脑的话,还是通过戴的设备,比如说眼睛、耳朵,才会读到其中。如果有这样的技术,不经过眼睛或者其他感官来无限影响人类,这个发生了,人类就真的完了,躲都躲不开。

  人将成为行走的数据,没有隐私

  在刘江峰看来,未来政府对于人们信息的控制将会越发严密,现在的政府在公共区域布很多无线扫频的设备,手机经过的时候,它知道你在哪里,未来可能会植入芯片到人脑中。天网基本上快成形了,每个人将没有任何的自由或任何的隐私。他认为,

做任何的人工智能或者做任何的技术突破之前,我觉得法律法规或者说人类的伦理的一些边界一定要划分好,马克思说过科学的入口就是地域的入口,我们人类不能走向把自己混灭的道路。

  在Ahmed Baladi看来,这个问题的关键点在于“程度”上。比如消费者想把芯片放到脑子里,用手机上的某种解决方案,愿意拿出个人数据和这个公司共享,这个是没有关系的,改变想法的话也可以中断。对于政府来讲,自然是不希望数据放在国土之外。

  在山世光看来,未来很多人会出于各种各样的目的,被迫植入这样的芯片。如果政府只是一个监控的目的,并不需要植入一个芯片。我们的人脸、气味、身高、体态,包括你的手机,政府可以时时刻刻的监控你在哪里。

  人机恋爱是否会实现

  关于人类和机器成为伴侣的事情,王小川认为很难做到,

人类几千万年的进化,对异性的选择和我们的生命生存繁衍非常接近,并不认为我们做出这样一个机器,做出赋予生命权的机器很难,不被接受,做出一个有生命,还能发生自我认知,还有情感的机器,从技术上来讲也是做不到的事情。

同时我们看这样一个法律规定,有人说我愿意和一个黄瓜结婚怎么办?不会有这样的讨论,我觉得机器狗不被富裕生命,这样一个机器人也不会被富裕生命,不符合法律。

  王世光认为,让人产生情感的话,应该是人机的一个混合体,因为基于传统的认知,异性的基本特征一般都要有,不一定是机器狗和和机器猫。而且结婚的对象不可控,它是一个非理性的东西。在他看来,

从技术的角度来讲,机器人是否可以让人产生依赖感,一个方面是可以感知你的情绪,可以知道你的喜怒哀乐,第二个方面是可以不可以表达它的情绪,可以表达它的喜怒哀乐。

  鲁白认为,什么事情都可能发生,男人现在可以和男人结婚了,在某些地区法律保护。他认为,人机结婚可能远远早于2045年,甚至2025年就发生了。

  AI未来与人类的关系

  郝景芳认为,联网的AI是一个不可避免的过程,未来的大数据也应该是云学习的方式。但如果AI控制全球了之后,与人类是否会进行和平的相处呢?

  可能处于节能的目的,AI会摒弃杀人的念头,反而会用脑芯片这样的终端控制人类,逼迫人类与它们签订合约。

  在胡嵩看来,论坛讨论的前提是人类还存在,如果超级智能真的出现短短几秒钟会超越我们整个星球的文明水平,为什么在地球上这样玩呢?

  Ben Goertze则认为,如果能签这种契约,已经是让人类感知好一点了。现实AI根本觉得无所谓,就像问一个两岁的孩子能不能做某件事情,需要问他吗?只是出于礼貌而已。也许可以看到这种超级智能,但不是人类和AI之间的势力是否均衡,只是AI觉得自己聪明一百万倍,也没有意愿成为独裁者,人类不要干疯狂的事情就可以了。

  钛媒体编辑张霖综合报道)

  以下为圆桌论坛的文字版:

  陈晓楠:各位科技界的大咖,企业界的大佬,大家晚上好。非常感谢在今天这样一个吹着海风的夜晚来到这里共赴这样一场非常特殊的聚会,我保证你们有一个非常特殊的夜晚,刚才已经看了异想天开这样的片子。

  各位来博鳌论坛一定是进行了马不停蹄的探讨,大家现在做一个游戏,这么一个狂想的片子,配着我们现场的什么呢?*复古的编辑桌,有一个1982年的晚报,现在想把这里变成人间指南报社,有一个电视剧叫《编辑部的故事》,各位化身编辑部的编辑,为我们出一份未来的日报。

  为什么要谈论未来这个话题?不用多解释,各位嘉宾来了以后,马不停蹄的谈未来,未来实际上这几年热度太高了,不谈未来基本上不知道我们的生活是什么样子,很多人说我们站在了一场无比巨大的变革一端,或许是工业以来*的变革,或许是人类出现以来巨大的变革。

  好多这样的数字是耸动的,有人说天才的数字是一百,有人说那时候达到一万,可能我们也分分钟达到永生,或者一百。有人说30年以后机器人大于人类的总量。更让我震撼的是一幅图,比如说这个小人,这个吹着海风的夜晚,前面是很平稳的道路,它告诉我,我们是这样的一个点,是如此陡峭的陡坡,会把我们引到何处?未来和世界会变成什么样子?我们这些科技小白会怎样呢?

  我们接下来穿越到那一天,站在那里看一看我们的生活画面是怎样的,我们想了一个办法,要出一份未来日报,我们从知乎,从网上搜集了大家的未来狂想,今天请在座的科技前沿的大咖们,你们最有资格告诉我们这些是否可能发生。

  不仅是网友给我们提供了他们的想象,今天在座的有四位重量级大咖也为我们提供了他们对未来的狂想。说实话是把我惊着了,他们的文笔,主要是想象的点非常让人震撼,我不告诉大家是谁写的,大家可以猜一猜,我都难以形容。

  我们来看一看游戏怎么玩,我们选了16条新闻,看一看标题,感受一下气氛,今天没有那么多时间全部探讨,选其中的八到九条,把它一一探讨一下,各位嘉宾每个人手里有一个投票牌,放了这个新闻以后首先告诉我们你们相信吗?会发生吗?作为编委,为我们评选出哪条新闻能够入选来自未来的空白日报。

  今天我们特别有幸请来史上最奢华,含金量最高的编委会。

  我们开始玩这个游戏,我们看一看我们的*条新闻,开车会成为一个复古运动,其实这是我选择了一个最温和的,小川现在就笑了?有可能吗?

  王小川:我笑的是你们说最温和的,其实已经很烧脑了。

  陈晓楠:之前我们设了一个直播间,不知道为什么这个直播间真的就消失了,没有找到理由,千真万确,不久之前才恢复的,今天可能真的是天机不可泄露,这个有可能吗?

  王小川:我觉得确实有可能,无人驾驶在2045年消失,但是并不意味着是深圳市*个消失,因为它是科技很发达的,应该是落后的城市。我不知道从什么关键点批判它。

  陈晓楠:我们的关键点是它终将能实现吗?哪怕成为我们的可能性,我们也要思考。我问一问山先生,您一直从事识别方面,自动驾驶来自于识别技术、深度学习,科技的发展原来是立体火车,现在是高铁,你们觉得这条是温和吗?

  山世光:比较温和,一定会实现。因为实际上驾驶行为是非常依赖于经验,进行学习的一种行为。目前从人工智能的发展角度来讲,只要是经验性的事情,经验被采样,我们可以让机器大量的学习人的驾驶行为。

  比如说人类的驾驶员开车开了几千、几百个小时就很多了,但是机器可以学习成百上千的驾驶行为,一定是可以超越人类的。

  陈晓楠:是不是用不了2045年?

  山世光:我觉得不需要。

  陈晓楠:现在*的障碍在哪里?

  山世光:我觉得可能是例外,比如说异常、失灵等等的这样一些问题,在我们采集数据的时候,相对没有那么的容易,反而可能会变的稍微有点困难。但是随着时间的积累,我们也可以慢慢积累出来这样大量的数据,机器可以从中学习到很多的规律经验。

  王小川:我补充一下,前面车子的轮胎松了,摇摇晃晃的,作为人类驾驶员是有经验的,车子一定要出事。今天所有的公司,现在还没有处理这些意外的情况,这是山先生讲的小概率事件做不到。

  山世光:因为现在的深度学习依赖于大量的数据,小数据不容易解决。比如说小川提到的例子,前面车的轮胎歪歪扭扭,应该可以自己感知到,马上跑到路边停下。

  陈晓楠:比如说我发心脏病了,车子可不可以停下?

  鲁白:我觉得深圳是有可能的,

  陈晓楠:深圳是我们腾讯在的地方。

  鲁白:其实无人驾驶最难的是人,最早发生的是非洲,非洲很多地方还没有路,不准人到路上开,当年我们汽车道路不准马车到路上跑,所有的车都是云在控制,轮胎可以都知道,人无法预测和无法控制。

  陈晓楠:人是非理性的。

  鲁白:因为你不能剥夺人开车,最后的大城市实现才可以的,非正*天实现无人开车。因为你全部都是云在控制。

  陈晓楠:直接可以知道你是不是得了心脏病,或者今天心情好可以开快一点。

  H:我们的人工智能就可以从一小部分的样本中,或者一个样本中来推导学习,甚至可以预见到那些从来没有出现过的信息,比人要有推导的能力。我觉得人工智能会使用新的人工智能技术,还有更多的感应器,会比人开车要好的多,而且早早的在2045年实现,人会不会被禁止开车呢?这是另外一个问题。

  也许在德州,在美国让人永远开下去,因为人想开,这是另外一个问题。我们还有人爬山,就是为了开心找乐子,但是坐直升飞机快的多。

  陈晓楠:这个车完全是成为公共的交通工具,每个人没有车库了,不堵车,不拥有车了,你们开始体会共享的感觉,为我们畅想一下共享汽车的交通工具,大的网络是怎么服务的?

  戴威:这个是一定会发生的,每个人的信息决策很难做正确的,以后相当于用中央控制的调度系统,效率一定是更高的,我搞自行车的,和汽车相比少两个轮子。但是未来大家不会买自己的车都是用公共的服务,不管是什么样的车,你都可以通过平台拿过来,享受它带给你的便捷服务,我觉得用不了2045年,可能是2030年。

  陈晓楠:现在攒钱买车的人不用攒了。

  戴威:还能开十年。

  董痒:路上有自动开的车和无人开的车就麻烦了,路上至少有骑自行车的,戴威已经做出很多的车,开到小区里面,人在那里走路,还是有人,很危险,这是*点。

  如果所有车被人控制了,如果我想去不想让人知道的地方,但是理论上一定有人知道我每分钟在哪里,这是很不愉快的事情。

  陈晓楠:你身边坐了很多做大数据的,以后没有隐私可言。

  胡嵩:我认为未来自动驾驶会实现,但是我不认为用云的方式实现,这很危险,如果自动驾驶真的实现了,离强人工智能的边界很近,这个时候又给人工智能这么大的控制全县,这很可怕,天网就来了,我不说出BUG,但是所有汽车都在被它控制,很可怕,突然觉得人类这些物种不值得存在怎么办?

  王小川:《速度与激情》第八还是第几集,无人驾驶车被黑了,造成巨大的事故。

  胡嵩:即便我们有能力未来创造自动驾驶的人工智能,也要广泛的和物理隔开。

  王小川:用云来控制,但是要有拒绝云的服务的能力,要想象这样一个事情。

  Ke:听了大家的想法,穿上服装就可以飞行了,人工智能以后,穿着飞行服飞来飞去就可以了,汽车是过去时了,我们可以飞的更疯狂了。

  陈晓楠:各位请举牌,应该人选我的人间指南的报纸吗?董痒还挺固执的。我们还有一个弃权的,以绝大多数入选。

  王小川:我们的入选标准是觉得可能实现,或者编委会觉得这是一个重大的事情?

  陈菊红:你觉得是选择的超过的时候哪个重大,我们先选出来,哪个上头版和头条。

  王小川:否代表什么?

  陈晓楠:就是会实现,我们总编在这里,直接邀请你入选了。

  王小川:还有标题党,假新闻。

  陈晓楠:接下来我们看第二条新,你替蒲松龄号说说获奖感言。

  郝景芳:我觉得人工智能写小说不太难,写诗和画画的更多,我看过人工智能画画,就是随机画,一秒钟扔出去生成很多图案,再做一个程序就画出来了,很多很容易。

  这个问题写小说很多人总结过有公式和套路,自己问自己几个问题,设一个主人公,克服几个困难,要失败,然后怎么克服困难,最后成功。如果这样去做的话,可以套路世界上90%的小说和电影。

  其实可以有套路,大数据学习和上千万本小说,确实能写。我觉得*的问题其实不在于人工智能能不能写,我觉得*的问题在于评选的人,是谁来评这个事情。人工智能可以画没有问题,但是人类可以选择哪个画的好,哪个画的不好,画的怎么样等等。从创造角度来讲,人工智能肯定可以创造,大不了写十本书,反正写的很快。

  最后的问题是人类会不会觉得它好,这是审美的问题。之前人们研究美学的时候是挺奇妙的事情,写小说能够总结出规律,大家什么时候觉得好,哪个美,哪个不美,目前还没有套路,审美是否能套路。

  它写完了以后,人作为主观评价者,好坏的标准在哪里?涉及到了另外一个问题,雨果奖是否是人评,人工智能去评,也拿一个套路去评的话,按照套路去写,按照套路去评,毫无疑问就会拿奖。

  陈晓楠:你说到关键的问题艺术是什么。

  郝景芳:艺术以前是,但是未来不知道是不是。

  陈晓楠:你受到威胁了吗?

  郝景芳:其实还好,人可以不按套路出牌,大数据要总结一个总好的套路,人可以不按套路出牌。

  陈晓楠:菊红我们感到威胁了吗?

  陈菊红:如果人还是做评委的话,对郝景芳他们这些人的调戏,好物都是可以的,每次诺贝尔文学奖出来也有人说怎么给了这样的人。大不了我是刺激一下郝景芳我写一点别的,还可以干的更好,如果是机器评的,可能性有一半,评委里面有一些人工智能,但是都是人工智能不太可能。

  为什么呢?因为你是说首次,首次这个词比较关键,一帮人工智能给了奖,这件事情太不刺激。人和机器,或者机器和人玩都要找一些好玩的点比较有趣。所以说我们探索科幻小说是人对前沿的科学探索,加上自己的想象力形成的作品的话,本来我们想要探讨其实它对于未知的想象力到底是多少,因为和别的小说不一样,和写诗也不一样,写诗对大数据来说太容易了。

  我想说的不是这个方向,我想说的是人在那个时候还是想调戏一下人,因为你还是一个主动地位,人工智能还是可控的,所以才会说给它一个奖玩一玩。

  陈晓楠:我这里特别想知道一个事情,创造力和想象力到底是什么?鲁白先生,很多人讲现在能写诗和作曲,是基于数据的算法,AI都会获胜,我们大脑中哪些东西不是基于算法的?

  鲁白:太多了,我们都是清华出来的,清华有一个传统是互相打架,我是不同意它的说法,特别不可能发生雨果科幻小说奖。首先,科幻是想象力更大的,人工智能可以做很多很多的事情,其中一个不能想象的是从创造和想象,不按照大数据,不按照套路来讲,这才是一个好的小说。

  好的小说首先是作家自己要有想象力,更好的小说是留出一些空间让读者爱想象力,这样的小说才能评上奖,我愿意让我们的郝女士拿奖。

  陈罡:关于这一条新闻我也不同意景芳的观点,机器和人创造的东西是人和艺术的两极。技术可以标准化和规模化,艺术大多数是*性,不可复制的。梵高画向日葵的时候是情绪达到顶峰,如果情绪完全可以复制,没有传世的珍宝和传奇。

  除了文学以外,音乐、美术都是艺术,来源于生活,并且高于生活,它要去体验,掺杂他的情感和经历,综合出*的体会。AI写诗、作画没有问题,做一个产品说明书、写书都可以,但是拿文学大奖太荒谬了。

  鲁白:我觉得你对人工智能了解的非常透彻,景芳。比如说4乘4的画,我可以产生所有4乘4的画,人工智能可以产生这个,但是不知道什么好,但是到了2045年的时候,会投一大堆画。

  今天我们人在写一篇小说映射当年的一些情况,今天人工智能没有这些情绪,刚好是蒙对了。英文字、中文字都不是有限的,还可以产生很多的问题。和人不一样的地方是它不知道产生好的东西,我们了解的画家,每一张画都有背后的表达意念,人工智能没有办法做到这些事情。

  今天做音乐的人,一定要计算机的帮助,其实可以帮助你做很多的内容。包括将来和现代,但是计算机辅助人去画画、写作、音乐等等发生的,把这些算进去,有更快的时间有人工智能帮助的作画。

  Ben Goertzle:今天的人工智能和2045年的人工智能完全不同,2045年AR可能获得雨果奖,但是那个时候的核心功能是完全不同的,我们不知道2045年的人工智能是什么样子,可能是具有想象力和创造力的人工智能,不仅仅是重复科幻作家的公式。

  王小川:我不太同意,而且严肃的来讲我觉得这一条最难,如果做到用语言表达,已经实现了强人工智能。图灵测试里面提到人和机器可以对话,目前对语言的掌握,对知识的掌握,已经使得它达到了图灵测试的标准。让它画画和写应约容易一点,一幅画在评奖里面是画家的作品,音乐是上乘的作品,我们是站在生命的角度理解生命,远远超过了图灵了,如果做到这些的话,人类没有生存的意义,从技术层面讲足够的难。

  陈晓楠:需要有主观的体验表达。

  王小川:对,除了郝女士以外,之前我也读过一篇小说,和外星人还是超级计算机,就算是猴子也能打出金刚经来,但是那只是计算。如果从不可限量里面找到这样一个答案,对智能的要求,对超人工智能和强人工智能的要求特别高,我认为在这里面做不到。

  陈晓楠:您所说的这种是真正的人的主观体验的表达。

  王小川:甚至在垂直领域里面做创造力有机会,比如说创造一个音乐可以实现,但是能写作,用文字表达,是通用人工的范畴。

  陈晓楠:微妙之处正在于此,是我们人说不清道不明的创造力,艺术是什么?什么好和什么坏我们是没有办法量化的。

  Ahmed Baladi:我想也许能得,你的新技术上线后消费者和人们能够选择,他们会选择我们想要什么样的技术,我们谈论艺术和创造力的时候,我觉得消费者不想买一个艺术品或者音乐或者什么的,由人工智能搞的艺术品,知识产权呢?我觉得这可能会破坏创造力。

  你刚才讲到艺术是比较主观的,但是会不会成功呢?我觉得不一定成功,要写的出来。

  陈晓楠:好的,各位,到了你们出牌的时候,我们有两个争锋相对的观点,请举牌。这条不能入选,后面的恐怕要开天窗了,大家还是忠诚于自己的观点,大家来看第三点。

  我们先给这条鼓掌,我觉得太嗨了。是我们在座的一位大咖写的,看着像谁写的?王小川先生。我们先看看大家支持不支持,我想先看看大家的投票,请举牌。

  王小川:我觉得大家判断是对的,在我内心当中我做了一个不可能发生的事情。我们现在讨论机器人是否有情感,机器人是否有自我意识。如果它有自我意识和情感,核心就是它有生命,意味着它有自己存在和延续下去的能力,延续下去才能找到我是谁,小的婴儿是不懂的,见到杯子是自己的一部分,但是大了之后知道我和世界不是一体的,有了生命和情感的概念。

  在机器威胁论的时候,核心的判断标准是机器是否有生命。在我的内心当中人类不会让它有生命权,但是这条新闻我是故意倒着写这件事情的。

  鲁白:我不同意小川的说法,我们要给生命下定义,生命的定义是两条,*条能够新陈代谢,有生游思,另外一条是它可以有法律保护的权利,我刚才举的是赞成票。我要问人工智能的专家有没有可能复制,但是我想不理由它不能复制。

  胡嵩:一个精密的机床可以复制自己,但是它有生命吗?

  鲁白:生命有两条,一个是代谢,能够发育的过程,不利于自己的东西排出去。

  胡嵩:如果自己可以换零件呢?

  王小川:我是站在复杂性的理论方面做的,但是有一些区别,不是新陈代谢。是它能够适应环境变化,在环境面前可以存在自己,杯子敲碎了就不能适应环境,比如说精密的机床,一点变化就不行了,如果是一个人流血了可以复原,我对生命的理解是面对环境的存在和存在的更多,是这种复制。这种生命挺可怕的,赋予了机器生命权,有更多的存在就威胁到人类,既有技术难度,也是人类可以避免的。

  陈晓楠:我们可以控制自己不赋予它这种可能性吗?

  王小川:我觉得技术做不到,距离今天特别远。

  陈晓楠:有可能吗?特别远。

  王小川:个我们在去年讨论最小的生命,里面大概有两百个基因,前面是三百个基因。两百个基因怎么做的呢?不是我们用人凑的生命出来,而是找出一种细菌去排解,今天我们创造的生命还是非常原始的,两百个基因还有40%不知道是干什么用的,为什么能工作呢?我们不知道,离创造生命理解它很遥远。所以我觉得既没有能力,又没有动力干这件事情。

  洪小文:我觉得王小川的说法,你用各种东西定义,机器都是这样的。目前的认知,狗都不一定有意识。有一个很有名的测试是镜子测试,人或者狗、额头贴一个东西,狗不会,可能海豚就会,不代表狗一定没有意识。

  从这个角度看很难赋予机器生命,但是这个狗可能属于某一个人,把某一个人的车子打坏了你要坐牢,这是*的可能性,*不是里面描述的。

  陈晓楠:可能作为一种财产,有权利,但是不认为将来会有意识。

  Ahmed Baladi:我觉得这是一个没有回答的问题,我觉得一个数码电脑以后会有像人的生命意识,但是一个人的大脑和一个狗的大脑要达到有意识的话,它是通过某一个量子物理的方式,在现在的电脑里是不存在的。

  如果有量子物理存在电脑中,机器狗肯定是有量子物理的东西在脑子里,怎么样回答这些问题呢?物理和生物这些技术如何让人脑的意识出现呢?我觉得一个量子电脑可以这么做,需要给予这些机器像人一样的意识,我们脑子里是分子和原子,可以复制,分子和原子在一起也会有意识,我不同意上面说的话,人没有动力,我是有动力创造出机器生命的,很多人也有这种动力。

  如果我们造了一个数据狗,脑子里有一个电脑,如果它没有意识的话,我们会用量子来制造一个数据狗。

  陈晓楠:如果有人做也是可以产生意识和认知,成为一个生命的吗?

  王小川:我觉得难,但是我觉得大家不愿意做这件事情,如果愿意做是很危险的,机器在未来可能是一万两万,还有生存和自我复制权,人类就可能灭亡了。

  陈晓楠:那你们还写这样暗黑的文章。

  王小川:我是觉得可行性和思考。

  鲁白:一条是生存,一条是意识,大家又把这些放进去了。我们人是有意识的,老鼠没有意识,极少数的动物把镜子放在它面前,不知道里面的就是它,没有自我意识,现在有一点意识混淆。

  陈晓楠:你觉得可能成为生命,但是没有意识的。

  洪小文:人可以造人,又有意识,又有生命,希望它比我们聪明,还不能控制它,所以有人想要造有意识的生命就多生一点小孩。人可以造克隆羊、克隆狗,也有生命,我非常怀疑造机器就是让人控制,让它给我倒咖啡就一定给我倒,我让我太太倒的话,太太说你有手有脚为什么自己不去做,我还说对。

  所以我们造机器人就是让他们听我们的,有意识的话就多生一点小孩。

  科幻小说也出现过了,人造出来的叫做什么呢?我一下子忘记了,不一定意味着有生命权等等的。

  郝景芳:刚才说的一个是适应性,一个是繁衍,我觉得对于机器不难。告诉机器哪个零件坏了换哪个,你就给它一个程序,遇到危险的东西要躲开,对它来讲太简单了,复制也很容易,以后的机器自己会学习,自己拿一堆零件组装一下自己就很难。

  对这一条为什么反对呢?有机器狗的话,控制程序不仅仅限于它的身体里面,云端一定有复制备份,苹果手机摔碎了,新手机还能把原来的数据备份回来,如果一个机器狗把数据都备份出来又是原来的狗,不存在虐杀它了。

  陈晓楠:这应该是一个好的科幻小说的开头。

  山世光:从人工智能的角度发展,我们要的就是可以迭代的,才有可能形成强大的人工智能。其实我们不需要考虑生命的问题,从实现人工智能的角度,我们想要机器能够自我迭代和成长,我们不希望它有自我的价值和保护自己,比如说缺一个零件,像景芳讲的自己可以更换,它有自己的欲望。

  从程序设计和编程来讲可以给它一个目标函数,让自己可以生存下去,我想找一个伴侣等等,它会有欲望和自私自利的一点,才有可能实现自我的迭代和自我的成长。我觉得这是实现强人工智能必要的一个手段。

  陈晓楠:鲁白先生,我想问的是连真正的哲人说到意识都会语文伦次,好像是您说了一句话,大脑在思考我们怎么运作。

  鲁白:这是一个悖论,我没有说不可能,现在我们的科学没有到这个地步,我们不说意识,我们说的是自我意识还刚刚开始,说不定可以去研究,现在我们没有到这个地步,但是我们可以不可以先转移一下花蒂,我们是想要一个新闻,这样一选就把这一条选掉了,我很喜欢这一条。

  陈晓楠:您这是要特权。

  鲁白:因为我们*轮是筛选,我们先让它进。

  陈晓楠:我们领导在这里,问一问菊红答应不答应。如果开天窗,就把这条特权拉回来。因为我看了你过往的言论,看到这个新闻觉得原来你是这么想的,但是您还是挖了一个坑,这条暂时还不能入选。

  好的,我们再来看一看第四条。

  我觉得这条新闻写的特别厚道,我觉得它会写盗窃它的是一位失业的媒体人,报社记者,还好写的是失业的外语翻译。陈罡自己解释一下。

  陈罡:这是去一个陌生的地方,我们作为一个人来讲去到一个陌生的地方,你是想知道它的信息的。30年以后,我们是可以随身携带一个云外脑,对当地,或者说某一个品类,某一个领域有更加深度和更加丰富的知识理解,不仅是文字、照片、视频,或者说非常专业的词汇你都很有可能有。

  比如说你去到台北故宫的时候知道每一件珍宝后面的典故,去到大英博物馆,会知道它背后的脉络。如果你的智商达到150、180,也很难存储各个领域丰富的知识。30年之后我们去到各地旅行,可以随身携带一个外脑,像我们今天的智能手机一样。

  我们今天可以随时随地的获取信息、交互信息和传递信息,30年之后,我们这个云外脑是无所不能的,而且每一个人有很强的个体属性,也是自己的私人财产很重要的一部分。这位92岁的老人来到北京遗失了电脑,当然有可能是故意的,我们朝阳群众会冲在前线。

  陈晓楠:云外脑是什么形态?

  陈罡:USB,可能会随身携带,不会插在电脑里,像我们今天的手机,但是里面存储了非常多的信息,个人信用卡、账户的信息,云外脑来讲,除了存储简单的信息以外,还有大量的个人的一些相关的东西,它的价值非常的高。

  陈晓楠:我们之前选择了一位网友的想法,可以插在大脑里的,那条新闻叫糟糕,我的博士脑芯片丢了,我们来相比一下。会不会像U盘一样随插随取,将来是否不用带收集了?直接插一个芯片。

  刘江峰:我觉得在2045年不会发生,可能发生的话是在2025年或者是2020年左右。而且我觉得如果没有备份的话,这套系统是没有人敢用的。USB插在脑子里,我个人认为这种知识在2045年是有可能的。

  鲁白:先评论一下他刚才讲的,特别好。这个不是2045年的新闻,是2025年的新闻,脑子部分的功能外延化,你手机的日历、通讯录等等,这个点上来讲用不到2045年,所以我们还是要改一下我们的新闻规则,我们要考虑2045年能不能上。

  陈晓楠:我们这个博士脑芯片的能成新闻吗?

  鲁白:把外界的刺激也好,信息也好装到你的脑子里,由于脑的刺激,在不远的将来就会实现。另外还有一部分的事情把你脑子里的事情导出来这个也不是很难。但是你要把记忆导出来,我觉得2045年一个是把外面的信息搞进去,另外一个是把里面的信息搞出来。

  山世光:我补充一下,前提是芯片不能有计算能力,有计算能力,会带来意识,这就回到了前面的话题。更可怕的不是一个人还是一个机器,而是人和机器的混合体,在人体里植入机器或者在机器里植入人的意识,很可怕。

  董痒:如果是这样的话,比如说肾掉了一个恢复一个肾的功能。另外一种是加强型的,非常可怕,使得你的某一个功能强于常人,这是引发军备竞赛的,你插一个芯片,我插两个芯片,我看你就是傻子了,所以我有钱就会买很多芯片,把自己装成变形金刚,就是军备竞赛。

  王小川:我有一个严格的数学逻辑的强迫症,但凡有这种脑机接口,能够对我们产生这样一种记忆和语言的能力,不再去游览23个国家,在家里戴VR就可以了,这是两个事情。如果有这种芯片人类不用做旅游的事情。

  胡嵩:这个我是反对的,芯片做到数理和语言,这是恰恰可能的。

  王小川:如果和脑袋接在一块,加上记忆和语言,像虚拟语言控制你自己。

  陈罡:你的触觉和味觉没有办法通过零和一来解决的,这个是完全珍贵的。

  Tim Sweeney:已经有非常好的输入和输出的回路,我们可以把信号传给我们的眼睛和手,我们已经有这样的头脑了,你描述的这种头脑,是的,确实有,我们有些电脑可以和我们的头脑联线。

  陈晓楠:我们不需要上学了。

  Bee:我们可以放入谷歌和计算起,可以把想法直接放入到我们的脑海中,计算能力超过了我们脑子的意识,我们觉得很可怕,可以成为一种混合的物种。

  每一年机器的力量部分会增加,会成为90%的机器和人,机器的部分超过了人的部分,但这是逐渐增加的,你不会觉得可怕,这是一步步变化的,比如说我现在是一岁,每天会进展一点,最后我会变成99%的机器,10%的人,不插入芯片的人会成为智障。

  洪小文:我觉得大家讲的是科幻小说,要换就整个脑子都换,2045年我不太相信会那么先进。但是今天所谓的脑科学,我们对脑的了解还不够,每一个地方到底针对哪个功能还没有做到,这个最起码要十年。今天说到芯片,助听器就是一种芯片,这种东西一定会有,某些功能越做越多,2045年可以多做一些,到那天已经不是芯片了,是整个机器都换了。

  回到这里来我提个拉票,这个是非常有可能的,并没有说2045年做到,是发生的这个事情,这个人有健忘症,他忘记了,这是非常可能的。而且这里说到环球旅行,一个东西,AR/VR,自动翻译,了解世界各地方的语言等等,讲起来容易,我们常常高估了三年可以做到的事情,低估了十年可以做到的事情,你可能完全不知道那个地方,可以做到和那个地方的交流,做到环球旅行的经验,2045年不可能,更不要说这个人还有健忘症。

  山世光:大家对于现在的脑机接口有一个误解,认为它是读脑,不是这样的。实际是对大脑间接的测量,测量方式在进行脑活动的时候有一个脑电波的活动产生,我们测量脑的活动带来的脑电波的变化,但是并不告诉我们记忆是如何存储,大脑如何活动,谈不上如何去写脑,谈不上记忆如何储存。

  陈晓楠:有没有这种可能性?

  山世光:认知神经科学发展到这么多年,也没有看到这种可能性。

  陈菊红:我想从新闻的角度为新闻拉票,最主要的不是版面空着,主要的原因作为新闻来说信息要完整。我们大部分讨论云外脑,完整的信息是什么?就好像隔壁老王干坏事了,不是说2025年*次发生就不报了,因为隔壁老王上次在海淀干坏事,现在到朝阳了。

  所以说里面有任何的信息是新的,我们这条信息就可以复印。

  Ahmed Baladi:我觉得这件事情可以发生,放在头条头版当中可以增加一个,这个芯片如果被黑了怎么办?如果有人把一些坏的意识形态传播到芯片上,这个人是否变成坏人,当然这个芯片有好处,但是不能保护这个技术,如果不能够避免恶意的使用这种芯片,我们会面临着在哪。

  我并不是说很悲观的,但是我认为芯片可以反映出通过芯片来控制人。

  鲁白:我们看这条新闻怎么定义,刚才我说的或者作者说的把信息放在手机里面,放在云端,这是2025年。但是把芯片插到脑子里面去,解读脑的记忆,我觉得2045年也不可能,神经科学还没有到这个地步。

  我说的是在电脑看来非常容易的事情,计算和记忆、储存,对电脑来讲非常容易。但是从脑子里获取这个信息解读成记忆,这个是脑科学里面一件非常难的事情。

  另外一方面又有非常容易的事情,比如说开心也好,欣慰也好,动机也也好,神经环路已经做的非常清楚。这个时候插一个芯片刺激那一个脑部位,一直会干这种事情。

  陈晓楠:已经有这种实验了吗?

  鲁白:动物的实验很早就有了,只要刺激那个环路就会一直做那件事情,他做的很开心,这样的事情用芯片来做很容易。

  陈晓楠:我们可以选择永远开心。

  鲁白:下一条新闻。

  陈晓楠:下一条新闻和这个相关,我们来看一下。先来选一下,同意,我觉得有两条就可以出了。

  我要隆重的说一下,这条新闻也是我们在现场的某位大咖,大家把目光向这里看,您这个特不靠谱的名字,先解释一下。

  鲁白:刚才我其实已经提到了,脑子里面关于情绪的环路已经搞的非常清楚了,只要你去刺激某个环路,就会让你产生厌恶、高兴等等,已经很清楚了。

  现在没有实现的是非侵入性的,一个电极进去可以产生某种情绪。但是上面说的是纳米半导体线圈,或者是用磁,或者是用什么样的东西,不要扎进去,戴一个帽子,通过互联网,云端产生一个联想,看到这个人的相片的时候,我就产生厌恶,不会投他的票。

  陈晓楠:自己被控制了都不知道。

  鲁白:对。

  陈晓楠:会不会把回忆和经历加进去,放佛我经历了一些东西,都是被控制的,但是我没有经历过。

  鲁白:那是不一样的,比如说可以把视觉和听觉影像的信号传入到脑子里,这个不是特别容易的一件事情。我们现在人类看的很简单的事情,在大脑里反而是比较难的事情。

  情绪控制的情绪环路已经相当的清楚,你就可以知道为了生存有几种主要的情绪和行为,假如说你去刺激它或者抑制它会造成什么样的行为,这个是相当的进步了。

  陈晓楠:挺惊悚的,意思是不能告诉我们具体怎么想,但是会影响我们的情绪好恶,这种简单的可以实现。

  鲁白:对。

  陈晓楠:有没有想评论一下,我觉得很恐怖。

  山世光:我也看了一些,我觉得有可能实现,但是不是简单的帽子,可能是这个会场经过了特殊的布置,周围发射某种信号去刺激在场的每一个人的脑电活动,或者是一种化学的东西,比如说是一种什么样的物质,通过呼吸和其他的方式进入到身体里面,然后去影响他的心理活动,这种可能更现实一点。

  鲁白:我这里专门用了一个蓝色的帽子,民主党是蓝色共和党是红色,发反面的帽子,我在里面做负面的刺激。

  陈晓楠:比如说共享单车,看到红色的产生喜悦感,看到黄色的很危险,有这个帽子想用吗?

  戴威:不用。

  陈晓楠:为什么呢?

  戴威:对产品有信心。

  陈晓楠:你们想用意念控制大家吗?

  翟芳:我经常收到投诉小红书是邪教,经常让人冲动。我自己挺相信这个的,我们经常服务的是女性消费者的情绪,很容易被调动和影响,不管是发送丑闻,这样的负面信息。或者说刺激你的情绪,心灵控制可能是比较快的带来。

  但是不知道心灵控制的效果,影响的效率是百分之百,可能只有百分之五十的人被影响了,这条新闻是我存疑的点。

  陈晓楠:看鲁白先生的帽子做的怎么样,纪先生觉得呢?

  纪中展:对这件事情我是乐观的态度,站在今天想未来,而不是站在未来想未来,2045年到底发生什么?我相信一定超出我们现在所有人的想象。大家都不是造神的,但是都是想去膜拜,但是我不想出现在我这一代,我的小朋友一代可以出现。

  陈洲:其实这一条里面有意思的地方是发送负面信息,如果说这是一种情绪控制是没有问题的,真要发送给他一些信息,2045年几乎不可能。不是现在AI、人工智能方面,更多的是神经学和生物学相关的东西,不应该进展这么快。负面刺激没有问题,我们今天就可以做,没有那么科幻。

  洪小文:鲁教授讲的很小心,今天要用电的刺激,未来有没有可能是电磁波等等,距离2045年还有很长一段时间,比如说洗脑,今天都已经在发生了。

  比如说中西方不一样的地方,东方看到红色是注意,西方是禁止的。比如说鞭打一个小孩的影像,他看到是很害怕的,这种是很有可能的。

  陈晓楠:如果我们真的可以随时随地的控制自己是不是快乐的话,所有的问题都解决了。

  陈天罡:这一点我反对鲁教授的观点,技术上对大脑的回路有简单的研究,通过电波可以刺激人的正常应急反应。但是这是一个社会问题,比如说小孩不听话,要哭闹,这个时候给他一个外部刺激让他听话。

  包括让人保持永远的快乐可以吗?上升到一个公司和一个政治,大家不用百花齐放,大家通常在洗脑的环境里面,这个环境还用投票吗?完全不用投票了,甚至说我们的好恶,我投反对票。

  Ben Goertzle:我们应该把前面的例子和这个例子组合在一起,通过一个帽子不可能注入,一旦有大脑芯片植入脑子,可以学的更快,想的更清楚,俄罗斯的黑客就可以黑你的大脑芯片,可以把记忆和假芯片传到你的大脑里,有人认为是真的,有人把假新闻移走你还要反击,认为他是破坏我的记忆。

  你的脑子里计算机的安全是很大的问题,不光是竞选的丑闻,如果有人想抢你的女朋友,他们可以在脑子里植入关于你的坏记忆,你说这不是发生的,是假的记忆,但是她不会相信。

  陈罡:接下来30年左右人工智能会带来更海量的存储,更方便的决策,但是只是一个辅助设备。在未来30年,人工智能发展的非常快,但是始终在我们的掌控之中,不会超越人的创造力。

  陈晓楠:现在有很多的问题,我们觉得应该这样,和事实会不会发生成这样,未来的不确定性就在这里,大家请投票,我对这个挺有信心的。只有冷静的两票,董痒先生说一说为什么反对。

  董痒:我觉得现在大脑接收什么东西,洗脑的话,还是通过自己戴的设备,比如说眼睛、耳朵,才会读到其中。如果有这样的技术,不经过我的眼睛或者利用我的眼睛无限影响我,相当于有一个病毒,本来通过喝水、亲一下才能传染,未来是空气传染,如果这个会发生,人类真的完了,躲都躲不开。

  比如说你追求一个女生,本来追不到,你带她去一棵树下。

  陈晓楠:这是*个应用,所有的男生看到这里都这样想。

  Ben Goertzle:有一个特别高明的AI的防病毒软件才可以。

  鲁白:一个已经做成的实验,把一个电极扎到老鼠的身体中心,按一个按钮,一直会按到它死。刚才他说到女朋友,现在我透露一个信息,中国的一个科学家正在做一个实验,还没有发表,对异性脑子里有一个东西,看到和接触异性的时候,特殊行为的时候,某一个脑的区域会被*的激活,如果说把这个激活阻断了,他会对异性毫无兴趣。

  如果你不给他看异性,只刺激这个东西,他就会感到非常快乐,像看到了异性一样。

  陈晓楠:我觉得你讲这句话的时候有光环,可以造神了,走在脑科学家面前非常恐怖,可以透明的看到我的大脑。好的,您成功了,刚才这条正式入选。

  接下来我们看一看下一条,我们刚才说到风险担忧,要是这样就糟糕了,这一条也是我们在场的大咖写的,刘江峰先生。

  刘江峰:因为写的是2045年的命题作文,但是我觉得甚至可能更快,大家都带着手机,手机现在已经成为人体的体外骨骼,或者人体增强。

  现在政府在公共区域布很多无线扫频的设备,手机经过的时候,它知道你在哪里。这是植在你的脑子里而已,天网基本上快成形了,你无可遁形。

  包括政府在采用大量的生物指纹,将来和很多信息结合,在这个世界里,你没有任何的自由或任何的隐私。我同意刚才陈罡说的,我们做任何的人工智能或者做任何的技术突破之前,我觉得法律法规或者说人类的伦理的一些边界一定要划分好,马克思说过科学的入口就是地域的入口,我们人类不能走向把自己混灭的道路。

  陈晓楠:以后人可能就是行走的数据包,基本上是透明的和您刚才说的问题很像,天眼。

  ke(不确定):我觉得如果政府在做任何形式的植入,街上肯定会爆发游行,武力的做法是不行的。比如说这个芯片让你动作更快,想的更聪明,技术上可能是可行的,但是如果是强迫植入的话,我希望这个游行不只是三四个小时,会继续下去。

  Ahmed Baladi:其实这个不光是隐私,很多人可以这么做,但是这个问题是出于什么样的程度,可以盗窃别人的隐私,这是人们可以制定的,看一看监管可以制定到什么样的程度。我们谈一谈私企公司对私企的信息保护不一样,如果消费者想把芯片放到脑子里,用手机上的某种解决方案,愿意拿出个人数据和这个公司共享,而且不告诉他做什么事情,这个是没有关系的,是很好的合同,改变想法可以中断。

  但是政府来讲有国家的保护主义,比如说某个国家不愿意不个人数据放到国土之外,现在这样的事情已经发生了。对于我来说,我觉得这是对隐私的侵犯。

  Ben Goertzle:强迫人们植入芯片,比如说微信支付等等手上可以一扫,自动的会去买,可以自动买这种芯片植入,孩子们会求他们的父母给他们植入。政府可能拿到这些数据,有人黑了这些数据,可以发生,现在我们已有的监督并不是实时可以发送的。

  洪小文:政府是强迫还是怎样的?

  山世光:很多人出于各种各样的目的,为了方便或者特殊工作已经植入了,这时候强迫所有人必须植入。或者说进入美国的,全部要植入。

  洪小文:我觉得强迫就不可能了,都不能强迫每个人用苹果手机。

  山世光:如果去美国强迫你按十个手指,为什么要按呢?

  Ben Goertzle:政府要求每个孩子进行免疫才能够安全,孩子的家长也要保证这个孩子得到疫苗的注射。

  山世光:如果政府只是一个监控的目的,并不需要植入一个芯片,我自己做人脸识别和生物特征识别,30年之后不需要植入芯片进行识别。

  我们的人脸、气味、身高、体态,包括你的手机,政府可以时时刻刻的监控你在哪里。

  陈晓楠:至少一个结论大家同意,我们的隐私会越来越少,我们会越来越透明。

  洪小文:政府这样做太阳谋了。

  陈晓楠:好的,请投票。

  山世光:虽然现在做人脸识别,对海量的人监控的时候芯片最快。

  洪小文:太阳谋,政府不会这么笨。

  陈晓楠:接下来是遗忘之药,鲁白教授给我们讲一讲想忘却痛苦就可以吗?

  鲁白:在记忆的乱路、记忆的神经细胞、记忆的分子,这些东西都已经研究的相当透彻,我们忘情水也好,药也好,可以增加某种意义。

  同样的道理也可以用一种药和忘情水使你忘却某种记忆。

  陈晓楠:可以覆盖新的记忆吗?

  鲁白:这个不行,记得很久的时间。

  陈晓楠:可以选择性遗忘吗?

  鲁白:应该也可以。

  陈晓楠:可以剪辑自己的记忆,只留好的。

  鲁白:应该可以,知道哪些细胞被激活,选择性的抑制这些细胞也可以。

  陈晓楠:我想问问在场的嘉宾,有想选择喝点忘情水的吗?或者说你有一段非常想忘却的东西吗?想喝忘情水的请举牌。即便是有,也不一定会有人买。

  我们现在还剩两条,人机恋的那条,我们来看一看。刚才我们探讨了对生命的意识,我们现在缺新闻,我想在探讨一下人工智能的情感。分两个层面是否会有意识的主动情感,因为现在我们有人机互动的机器人,基于数据的驱动懂得我们怎么社交,不发脾气的这种忠实的伴侣会吗?

  王小川:我觉得是很难做到的,人类几千万年的进化,对异性的选择和我们的生命生存繁衍非常接近,并不认为我们做出这样一个机器,做出赋予生命权的机器很难,不被接受,做出一个有生命,还能发生自我认知,还有情感的机器,从技术上来讲也是做不到的事情。

  同时我们看这样一个法律规定,有人说我愿意和一个黄瓜结婚怎么办?不会有这样的讨论,我觉得机器狗不富裕生命,这样一个也不富裕生命,不符合法律。

  洪小文:虽然小川不同意,我觉得这是很容易发生的,有一个就去法院申请,而且法院不准他们,它的描述是*有可能的。

  山世光:AI是从人变成机器还是机器变成人,有可能是一个混合体,让人产生情感的话,和我们传统的认知,异性的基本特征要有,不一定是机器狗和和机器猫。

  结婚的目的是什么?结婚的对象不可控,是一个非理性的东西,需要一个法律去保护你的权益,这个事情确实要发生的。

  王小川:我认为不会发生的原因是这样的,前两年已经有新闻了,在国外,有人想和动物办婚礼,法律上很容易界定这件事情。这里面我觉得你觉得是新闻,已经发生过的旧事,和机器人没有关系。

  但是2045年是否有婚姻制度还得去考虑,很多人认为婚姻制度为了繁育小孩子,随着社会的发达,儿童的孕育可以由社会承担。从两头来看,出现这种事情的可能性是极端小的。

  陈晓楠:我们有生之年婚姻制度就可能瓦解了。

  陈罡:这个事情发生率极高,我们在人工智能,技术领域上的提升给机器赋予情感和生命,这是一个层面。

  第二个层面是人文的社会,我们能接受什么样的事情,2045年是否会变成法律的问题被更多人公开的接受,我觉得这是两个方面的问题,不是技术的问题。

  山世光:从技术的角度来讲,机器人是否可以让人产生依赖感,一个方面是可以感知你的情绪,可以知道你的喜怒哀乐,第二个方面是可以不可以表达它的情绪,可以表达它的喜怒哀乐。

  当然,不去考虑它有没有生命的问题。从这个意义上来讲,可以感知你的情绪,也可以表达它的情绪,就是喜欢这样的一种机器,可以和自己互动的很好。

  陈晓楠:你说的这个特别好,原来还有一条网友的,糟糕,我被我的机器人女友嫌弃。

  山世光:很有可能。

  胡嵩:这个新闻不一定代表我们造出了有生命,有意识的机器人,它的伙伴认为它有意识就可以了。很多宅男就喜欢平面的形象,甚至有人像小机器人求婚。

  鲁白:刚才讲了两个层面,一个层面是会不会发生,什么事情都可能发生,男人现在可以和男人结婚了,在某些地区法律保护。从这个意义上完全有可能,可能远远早于这个时期,2025年就发生了。

  另外是科学方面的问题,婚姻的基础是爱情,爱情是双方的。我觉得人可以爱一个机器,从我们现有的技术往前走50年,机器产生情感,想象不出来。

  陈晓楠:我们人类目前对AI是单相思。

  鲁白:对,我觉得这个新闻存在的可能性没有,在2045年,要不然在2025年发生,要不然就不会发生。

  Ben Goertzel:我同意,这个问题有两个层面,我觉得法官会非常头痛的问题。科学界也会达成共识,如果一个女性想要和一个机器人结婚,这个机器人看起来像一个男人。说她恋爱了,你问她们的情感,机器人也可以回答这种爱的问题,但是法官会不会相信这个机器人的感受呢?或者法官认为机器模拟陈述的感受,我们需要专家证人说机器人没有体验到爱,另外一个专家证人说这个机器人体验到了爱。

  就像我们人脑证人体验到的一样,不同的国家,不同的法官会做出不同的决定,这些机器人会到一个允许他们结婚的国家。

  陈晓楠:好的,请投票。好的,我们剩下最后一条,大家先来看一下。这位作者是郝景芳女士,解释一下。

  郝景芳:前面几条我都没有说话,我都在听大家说,觉得特别有意思。我自己觉得未来有几个趋势,我不觉得AI是个体化的,它都是从全球的Siri告诉我们的。

  实际上我觉得不可避免的联网AI,程序员会备份,一定会备份。未来大数据一定是云学习的,云计算的,一定是发生在云上面的。不可避免的是,控制整个全球的电网等等。

  也有很多人担心AI全球控制以后,觉得我们人要完蛋了,把我们杀死了,但是不太可能发生。原因是杀人非常耗能的,全部排队等着AI来杀,这个动作把我们所有人都砍死,需要耗费巨大的能量,从理性计算上来讲,威胁就是很好的办法,我们都有核武器,不用互相扔的方法,只是威胁你我有核武器。

  只要告诉你不要非理性的惹我们就够了,因为它确实威胁到我们,控制着所有的终端。但是我觉得脑接芯片接口会发生有人接入了一两个芯片就比别人聪明了好多。他就能挣很多钱,主动人想去接入,这样的话全球联网控制人类也很容易,只是不用断电伤害它。


【本文由投资界合作伙伴钛媒体授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。