人工智能机器人的创作者,在很多的科幻小说中,往往被描述为像近视博士Frankensteins那样,他们无视这个技术将会带给人类世界末日。其实在现实生活中,他们往往会仔细思考这个大问题:善与恶,以及机器人浪潮的到来和机器人的大脑将会对人类产生什么样的影响。
科学家们承认,他们的工作就是打破仅限于实验室的研究,而是要进入现实世界,12月10日,在为期一天的峰会上,大家都在讨论这个机器人的伦理问题,以及如何防止机器人比人类还要聪明,以至于会导致人类失去工作,增加法律诉讼的并发症,或者更糟的是,试图危害社会。如今的AI(人工智能)可以学习如何玩视频游戏,帮助自动回复电子邮件,并在一定条件下,可以驾驶汽车。这已经引起了它可能会影响工作者的担忧。
“毫无疑问,如今有很多的工作,之前无法实现自动化,现在都可以实现自动化了,” Erik Brynjolfsson(埃里克布林约尔松)说,一位麻省理工学院的经济学家,举了这些例子,如初级律师的相关工作,现在已经有机器人也能够胜任了,人们可以在自助结帐超市的结账通道自己结账了,这样收银员的工作也被机器人代替了。
“你希望在这个经济中,将会有一些新的就业机会,” Erik Brynjolfsson(埃里克布林约尔松)说,“企业家和经理人还没有如此创造性地发明了新的就业机会,因为他们已经将自动化应用于现有的一些工作。”
Yann LeCun,Facebook人工智能研究的领导人,并没有如此的担忧。他说:“过去,社会已经适应了一些改变,这是技术进程中的另一个阶段,这不是一件容易的事,但我们必须要应对它。”
还有其他潜在的困惑,像由于AI(人工智能)正在独立于人类的控制,做更多的决定,法律环境将要如何改变? “在某些情况下,使一个算法在法律程序的限制下脱颖而出,这将是非常困难的,” Ian Kerr(伊恩?科尔)说,他是渥太华大学法学院,主要研究道德,法律和技术之间的关系,现任加拿大研究主席。“我认为这将是一个非常巨大的挑战。”
其他人则进一步展望未来,试图分析AI(人工智能)超越人类能力,将会产生的影响。去年,谷歌收购DeepMind,一个AI(人工智能)公司,专注于开发比人类更聪明的机器人这个目标,进行基础研究。Demis Hassabis(杰米斯),该公司的创始人之一,将其描述为一个阿波罗计划,致力于AI(人工智能)创造。
“我并不想声称,我们知道我们什么时候能够做到这一点,” Shane Legg(巴蒂尔莱格)说,该公司的另一位创始人。“提前准备总是比之后准备更好。”
虽然他们认为一个恶意的超级AI(人工智能)能够发展,这个机会是非常小的,但是,Shane Legg(巴蒂尔莱格)和其他人已经开始着手研究潜在影响,因为它可能会造成严重的威胁。
“我不认为世界末日将会到来,我们现在有服务员机器人,正在拿着一个托盘为你带来你的食物,” Nick Bostrom(尼克博斯特伦)说,牛津大学的博士,他已经出版了书《超级智能说:路径,危险,策略》已经引起了有关AI(人工智能)影响的讨论。“最终的结果可能是,一些我们所熟悉的东西,看起来却是非常不同。”
Shahar Avin(沙哈尔),他是剑桥大学生存风险研究中心的研究员,认为:“AI(人工智能)可能被太早的研究了,以至于不能有一个很好的方法,来研究如何防止恶性AI(人工智能)的形成。”
“我们希望那些代理人不能或不愿改变自身的价值体系,” Shahar Avin(沙哈尔)说。关于如何做到这一点,这是一个悬而未决的问题。更多的资金和更多的公众辩论应该相结合起来,让更多的科研人员能够进入到这个领域来研究,如何使AI(人工智能)更加安全。
作为努力的一部分,特斯拉汽车公司和太空探索技术公司,以及其他高科技灯具的创始人Elon Musk(伊隆?马斯克)宣布:12月11日,成立OpenAI,一个非营利性研究机构,致力于以一个更加开放安全的方式,来开发强大的新的AI(人工智能)技术。
如果超级智能是必然的,最好以一个开放的方式来研究它,并鼓励人们去思考后果,Elon Musk(伊隆?马斯克)说。他还资助了生命研究所,致力于探索一些新技术将给人类带来的风险,其中包括AI(人工智能)。
Elon Musk(伊隆?马斯克)说,但是,“人工智能恶智能”的魅力可能证明更多是负面影响,如失业。而LeCun说:“AI(人工智能)会比人类更好,更加亲切。”
“我们正在被我们生存的基本本能所驱动,”LeCun说。“机器人将有一个非常不同类型的智力,它将不会有一个让人类相互做坏事的驱动。”