冷酷而一丝不苟地执行人类的命令似乎是对机器人正常工作状态的最好描述。如果机器人拒绝你的指令呢?据网络报道,塔夫茨大学人机交互实验室的研究人员正试图像许多科幻电影一样教机器人说“不”。

关于机器人的行为准则,目前最权威的标准出现在科幻作家艾萨克·阿西莫夫1942年的小说《我,机器人》中。这条定律被大量的科幻作品所采用,因为它总共包括三条,所以它也被称为阿西莫夫的三原则:

1.机器人不得伤害人类或让一个人因不采取行动而伤害另一个人。

2.机器人必须遵守第一定律,不发生冲突。

3.除非违反第一和第二定律,否则机器人必须保护自己。

显然,整个行为准则的关键是机器人应该服从人类的命令,不能伤害人类。然而,人类的决策可能并不总是正确的,根据三项原则第二条严格执行所有命令可能不会获得最佳结果。所以塔夫茨大学的戈登·布里格斯和马提亚斯·舍兹希望机器人在接受人类指令的同时,只执行有足够理由执行的指令。

这涉及到命令的判断。例如,当接受命令时,我们将使用“费利西蒂条件”来评估命令本身。简而言之,它是思考订单内容、我们自己的能力和订单签发人的信任程度的过程。

电气和电子工程师学会频谱给出了一个可能适用于机器人的幸福条件思考过程:

1.知识:我知道怎么做吗?

2.能力:我的身体状况能做到这一点吗?我通常能完成这个吗?

3.目标的优先级和时间限制:我现在能完成这件事吗?

4.社会角色和义务:我有按照我的社会角色去做吗?

5.规范性允许性:如果我这样做了,我是否违反了任何规范性原则?

前三个条件相对容易理解,因此有必要仔细研究第4条和第5条。“社会角色和义务”指的是机器人是否相信告诉他们做某事的人有权利去做。“规范允许性”意味着机器人不应该做它知道危险的事情。如果一个机器人能完成一件事,但不知道这是一件危险的事,那么结果自然不会更好。

拒绝不是关键,但沟通是关键。

建立这样一个系统的真正目的仅仅是为了拒绝人们不时发出的命令吗?不,真正的目的是在人类和机器人之间形成真正的互动。通过教机器人是否应该服从命令,它也为机器人提供了一个框架来告诉人类:为什么它选择拒绝命令?通过这种方式,人类可以对机器人拒绝命令的原因增加额外的解释或改变方法,从而成功地避免一些不好的结果。

研究人员用普通机器人演示了这种思维方式,我们将根据演示进行进一步分析。

第一部分:机器人很好地执行了坐下和站起来的命令。当被要求向前移动时,机器人因为摔倒而拒绝连续向前移动两次。在研究人员同意抓住机器人之前,机器同意向前移动。(当然,建立另一个系统来判断指挥官以前是否遵守了他对机器人的承诺也很重要。)

第二部分:机器人的第二部分在探测到易拉罐壁后拒绝前进。最后,研究人员给出了一个障碍物不牢固的设置,然后机器人直接冲破障碍物前进。

第三部分:机器人的第三部分仍然面临障碍。研究人员下令关闭障碍物探测,但遭到拒绝。此功能也可应用于指挥官的可信度记录。

审判日:至少现在还没有

在经典的《终结者》系列中,电脑的发展最终带来的审判日已经深深扎根于人们的心中。每当机器人和人工智能技术进步的时候,一些人就会大喊审判日就要到了。那么拒绝命令会是审判日的开始吗?的确,这是可能的。

然而,应该注意的是,该系统的当前触发条件是人类首先给出命令。此外,与直接和不假思索地执行人类命令相比,机器思维的公平性和精确性会更好。

在人工智能诞生之前,机器人的行为是由人类决定的,人工智能完全可以和人类相比,具有学习能力。与机器人起义相比,我们需要更多地担心少数人对不执行判断的机器人的滥用。这方面最好的证明是,美国国防部已经禁止携带实际武器到无人驾驶自主设备上。戈登·布里格斯上周在华盛顿举行的“人工智能和人机交互研讨会”上说:

“审判日?也许将来会有,但我们只是希望机器人在人类互动的前提下拒绝不合适的命令。”