机器人、人工智能无疑是近年来最具争议的科技技术,一方面,人们希望机器人更聪明、更全能,帮助人们处理一些棘手的问题或是取代低端劳动力;一方面,人们又担心机器人会在某一天变成“终结者”,自主意识会让它们变得比人类更强大。
显然,并非所有科学家都认同“机器人威胁论”,事实上他们希望机器人更聪明。其中,一个方向是让机器人首先学会说:“不”。
AI更智能的第一步
去年,美国波士顿塔夫茨大学人机交互实验室展示了一项研究成果:一个小机器人走到桌子的边缘,研究人员要求它继续行走,但它表示拒绝。显然,至少从算法上来看,这是人工智能的巨大突破。
此前,人工智能的表现形式在于更广泛的数据库、先进的比对形式,当然也包括模仿一些人类的行动,但机器人没有“常识”,比如对人类不合理要求的判断。科学家Matthias Scheutz和Gordon Briggs表示,让机器人具有一定的人类常识是近期人工智能发展的第一步。举例说明,如果机器人走进家庭,它需要能够判断一些事情,比如淘气的孩子让它向弟弟身上倒热咖啡,它会拒绝。这样的技术并非让机器人真正具有自主意识,但实现起来依然非常困难。
具体来说,让机器人具有一定人类的道德标准,除了教会机器人如何完成任务,还需要通过非常复杂的附加层来实现。目前,卡耐基梅隆大学计算机科学院投入了2000名学生和师资力量,来进行该技术研发,至少需要到2040年,才有可能实现消费化应用。
当然,近未来我们的手机助手不仅仅能够回答诸如“今天天气怎样”、“最近流行什么服饰”等简单问题,还会进行更具关联性的联想。在达到一定的学习能力后,人工智能才能真正有能力分辨出人类情感中的一些道德伦理及常识,并将之加入到行为规则中。