AI成长有触觉、处理负面情绪,或将学习人类价值观

2017-05-11 13:36 行业报道   

导读随着人工智能的发展,越来越多的科学家开始担忧人工智能会给人类带来各种难以预计的影响,甚至可能是灾难。  

随着人工智能的发展,越来越多的科学家开始担忧人工智能会给人类带来各种难以预计的影响,甚至可能是灾难。

关于人工智能(AI):人类必须监督和设定

AI的每一次提升都增加了网络的力量,然而能掌控它的仍是人类。事实上,AI也只是一系列指示和命令,类似于法律条文和游戏玩法,军队就像AI应用的有机体。虽然AI够极大的增强网络的威力,但AI却是执行人类设定的目标,采集特定目标下的数据。

AI成长有触觉、处理负面情绪,或将学习人类价值观

因而,如果提供的数据是扭曲的,或是设定的目标是不公正的,AI只会扩大这种不公平。一旦用看似公平的AI替代人类做决定,社会将会受到巨大的威胁。AI的应用必须受到智慧和聪明的局外人审视和监督,以防止集团利益优先于正义和社会整体利益。

机器人可感受到疼痛,且它善于处理负面情绪

日前德国科学家开发出了一套人工神经系统,可以让机器人感觉到疼痛,使其在面对潜在危险时能迅速做出反应,避免受到伤害,同时,也能保护站在身边的自然人类。

研发人员称,让机器人感觉到疼痛,其实并不困难,只需在机器手臂上安装一个类似手指的传感器,他们就能探测到环境的压力和温度,而且这套系统也能把收到的感觉进行分类:轻度、中度和重度疼痛等等,依照不同程度的疼痛,启动相应的保护机制。事实上,如果编程者的数据足够强大,机器人的胳膊在被女朋友咬了一口之后,脸上甚至会出现一个痛苦的表情,且能跪下来发誓,再也不会偷看街上美女了。

AI成长有触觉、处理负面情绪,或将学习人类价值观

这个生物版的机器人再次引发热议,科技人士关心的是,自己的理念能否完美变现,他们不在乎愚蠢的同类是否想得通,是否能接受;而社会学家则会再次扯出人性、伦理等道德层面的东西,他们害怕机器人抢走了自己的工作、情感和之于世界的主导权。总之,未来的50年内,自然人会时不时地陷入纠结和恐惧中,毕竟,科技在进步,机器人也会进步。

机器人诞生之初,最早的定义应该是人类的奴隶,他们要负责自然人类干不了和不想干的工作,在很长一段时间内,人类都盼望着机器人能更加地聪明,甚至能独立完成工作,因为世界上有那么多的工作都在等着机器人来完成。

我们希望机器人能协助完成一些单调、无聊的工作,比如流水线上的组装、简单、枯燥,长时间操作会影响效率和良品率,这就是为什么制造企业在规划未来时,言必称“自动化”;再有一类则是具有职业危害的工作,比如有害气体、粉尘、容易爆炸的抛光车间等,在这些车间里装两个机器人,管理起来则会轻松惬意。

目前的情况,人类同机器之间虽然不是亲密无间,但总也算的上相安无事,现在的机器人没有情感,不用表达情绪,但也只能完成最基本的工作,事实上,倘若想要机器人完成更复杂的工作,势必要赋予机器表达情绪的权利:

机器人在感受到疼痛之后,会启动相应的机制,从而保护自己以及身边的自然人——倘若机器人足够敏感,他们会觉得累、觉得疼,觉得自己做出的产品会有问题,可随时反馈给管理人员,在适当的时候调整工作强度,而不必非要等到机器人累到吐、累到报废才考虑停下来,这样不仅可以大大延长机器人的使用寿命,也能有效降低不良品所带来的重工成本,这都是目光长远的策略。

AI成长有触觉、处理负面情绪,或将学习人类价值观

受惠于感应器、云计算、大数据等技术,机器人正变得更加聪明,他们可以记录“眼睛”看到的一切,越来越多的数据量不经筛选地全部进入机器人的大脑里,经大数据分析之后,做出类人的判断,这种模式最可怕的地方在于,机器人具有了自主学习、持续成长的能力,这种感觉不知道会不会给他们带来快乐,但肯定会提升其玩转世界的能力。

而且相比于自然人,机器人在处理恐惧、焦虑等负面情绪时会更有优势,他们的反应都是经过计算得出的最佳结果,基本上没有冲动的惩罚,更恐怖的则是,他们不会轻易感冒、发烧,恢复起来更加容易,胳膊、腿什么的更容易复制,自然人骨折了需要100天,而机器人骨折了,可能只需要1个小时就痊愈了。

AI成长有触觉、处理负面情绪,或将学习人类价值观

机器人的疼痛之所以能引发广泛关注,一方面这标志科学技术的进步;另一方面,这也标志着人类生活又被机器人攻陷了一大块。事实上,随着机器人智能化程度的提升,它们终于变成了“他们”,终于开始抢夺人类不想丢掉的东西,包含一部分工作,更重要的是,机器终于开始分享人性快乐,比如学习的快乐、宣泄的快乐、性的快乐。

人工智能专家建议向机器人灌输人类价值观以防背叛

机器人知道疼了,但是我们变得更恐惧了。

在近日开幕的“TED2017”大会上,计算机专家斯图尔特-拉塞尔再次发出警告称,人类制造出的事物(人工智能)将可能进化得比人类更聪明。人类必须要在机器人内部预置不确定性,以防备它们的背叛。

美国加州大学教授斯图尔特-拉塞尔称感觉制造出一种比自身物种更为聪明的事物并不一定是好事情。拉塞尔建议,为防止机器人接管我们人类,必须制造出无私心的机器人,即在它们的目标任务中存在一定程序的不确定性,应该教会它们人类价值观方面的知识。通过向人工智能系统中灌输“人类常识”,科学家必须重新定义人工智能,这样我们才能制造出有益的机器。

拉塞尔表示,机器人应该按照某种法则或定律去编程,就比如科幻作家艾萨克-阿西莫夫提出的机器人三定律,以防止它们在执行任务时造成无意识的伤害。

因此,在为机器人编程时,就必须将利他主义、谦虚谨慎的态度以及其它一些人类价值观方面的优越性编写进去。拉塞尔认为,“这是人类与人工智能互相适应、和谐相处的第一步。”

不过,苹果Siri高级研发主管汤姆-格鲁伯对人类和人工智能的未来抱有较为乐观的态度。他认为,人工智能将可用于增强人类的忘记力,让人类不再会忘记任何事情。

AI成长有触觉、处理负面情绪,或将学习人类价值观

格鲁伯表示,“人工智能所带来的超人能力是不可避免的,这能够让我们记住每个人的名字,记住听过的每一首歌或者看过的任何事物。人工智能能够与人类协作,而不是许多人所担心的对抗,它们能够帮助我们人类战胜极限。如何利用这一强大的科学技术,我们有自己的选择。我们既可以让它们与我们竞争,也可以让它们与我们协作。它们只会让我们克服局限,做得更好。机器人变得越来越聪明,我们人类也会更加聪明。”

AI成长有触觉、处理负面情绪,或将学习人类价值观

但笔者认为,世界总会随着科技的发展而向前推进,如果有一天,人类在争夺地球控制权的战争中输给了机器,那么,也应该心服口服地接受,毕竟,适者生存。更何况,机器人也是我们的孩子,未来出现更多优秀的孩子也不失为一件好事儿,美丽世界也应该属于他们。

标签:  人工智能[12]    机器人[36]
[整理编辑:中国测控网]
更多精彩文章请关注公众号“CK365测控界”

免责声明:凡注明来源中国测控网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,请注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

版权与免责声明:

①凡本网注明"来源:中国测控网"的所有作品,版权均属于中国测控网,转载请必须注明中国测控网 www.ck365.cn。违反者本网将追究相关法律责任。
②本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。如其他媒体、网站或个人从本网下载使用,必须保留本网注明的"稿件来源",并自负版权等法律责任。
③如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
 

专题推荐

中国卫星导航学术年会

第八届中国卫星导航学术年会(China Satellite Navigation Conference, CSNC 2017

Labview专题

LabVIEW是一种程序开发环境,由美国国家仪器(NI)公司研制开发,类似于C和BASIC开

论坛热帖

技术文章

资讯排行

读了又读

53%的网友读了:
谈新能源车补贴:合理的政策不应该亡

5月17日,工信部发布了《关于2016年度新能源汽车推广应用补助资金初步审核情况的公示》(以下简称《公示

2017-05-26 14:15
50%的网友读了:
人工智能是否已超越人类?一种与人类

近年来,人工智能快速发展,它是否已成为超越人类的智能形式呢?该如何理解人工智能呢?在日前举办的第四

2017-05-26 14:14