我们能教育机器人成为“好人”吗?考虑到这个想法,英国布里斯托尔机器人实验室的机器人专家艾伦·温菲尔德为机器人设计了一个道德陷阱,然后机器人的反应令人震惊。

在一个实验中,温菲尔德和他的同事为机器人设置了一个程序:防止其他人形机器人掉进洞里。这是艾萨克·阿西莫夫(美国著名科幻作家)提出的机器人三大定律之一的简短版本——机器人必须防止人类受到伤害。

起初,机器人能够顺利完成任务:当人形机器人向洞里移动时,机器人会冲上前去推开它,以防止它掉进洞里。后来,研究小组添加了另一个人形机器人。两个人形机器人同时移动到洞穴的入口,救援机器人被迫做出选择。有时候,它成功地救了一个“人”,而另一个却掉进了洞里。有几次,它甚至想把两者都救出来。然而,在这33个测试中,有14个因为不知道该救哪一个而浪费了时间,所以两个“人”都掉进了洞里。9月2日,在英国伯明翰举行的“走向自主机器人系统”会议上,研究人员向世界展示了他们的实验。

温菲尔德称他的机器人为“道德僵尸”。虽然它可以按照设定的行为程序拯救他人,但它不明白这种行为背后的原因。温菲尔德说,他曾经认为机器人不可能做出道德和伦理的选择。现在,他说,“我的回答是:我不知道。”

随着机器人日益融入我们的日常生活,这个问题也需要一个答案。例如,一辆自动驾驶汽车有一天可能必须在保护车内人员的安全和对其他司机或行人造成伤害的风险之间进行权衡。可能很难为机器人设置相应的程序来处理这种情况。

然而,为军事战争设计的机器人可能为我们提供这个问题的初步答案。佐治亚理工学院的计算机科学家罗纳德·阿尔金开发了一套专门针对军事机器人的算法,名为“道德监督员”,可以帮助机器人在战场上做出明智的选择。阿金在模拟战斗中进行了测试,结果表明,装备了该程序的机器人可以选择不射击,并且可以在战斗中尽量减少学校和医院等战争法规规定的保护区附近的伤亡。

阿金说:“战争法有1000年的历史。人类会受到情感因素的影响并打破规则,但机器人不会。”