根据TechCrunch的说法,自从数学家艾伦·图灵(Alan Turing)1947年在伦敦的演讲中首次公开提出改变计算机智能以来,人工智能已经吸引了人类半个多世纪。最近,越来越强大的人工智能出现在各种媒体头条,无论是谷歌AlphaGo击败人类围棋大师李石师,微软人工智能聊天机器人Tay的种族主义言论或机器学习领域的其他最新发展。一旦科幻小说中的情节变成现实,人类必须尽快定义与人工智能的关系。

人类长寿公司的联合创始人和副主席彼得·迪亚曼蒂斯(Peter Diamandis)最近在专业社交网站LinkedIn上写道,在“下一次性革命将数字化”的主题下解释了人类和人工智能之间的关系。迪亚曼迪斯指出,最近的报道显示,日本人越来越放弃性和爱情,而越来越多的男人喜欢虚拟女友。

迪曼迪补充道:“这只是开始。随着虚拟现实越来越受欢迎,它的主要应用将不可避免地涉及虚拟现实色情,这将是一个更加激烈,生动和上瘾的经验。此外,随着人工智能在互联网上的扩展,我认为将会有越来越多的人工智能支持的化身和机器人爱好者,就像电影《她》和《玛吉》中描述的场景一样。"

人与人工智能的关系十分突出

迪亚·曼迪斯真正的意思是,他认为人类会开始与人工智能机器人建立更密切的关系吗?这不难相信,因为已经有证据表明日本男人确实更喜欢虚拟女友,但是我们如何开发接近真实人类的虚拟形象呢?

为了回答这些问题,我们必须首先理解人工智能是什么,以及人工智能在公共世界中代表什么。目前,人工智能有两种基本类型,即强人工智能和弱人工智能。

其中,强大的人工智能在不断进步,它的最终目标是创造出在智力上与正常人几乎无法区分的机器。麻省理工学院人工智能实验室的约瑟夫·魏曾鲍姆说,强大人工智能的最终目标是基于人类模型制造机器。它有自己的童年,能像孩子一样学习语言,能用自己的感官感知世界,获得知识,最终能像人类一样思考。

强人工智能也是电影中常见的人工智能类型,比如《终结者》中背叛人类开发者的天网系统或2001年《太空漫游》中的哈尔9000。有人预测,如果这种超人智能成为可能,我们将触发“奇点时刻”然而,这个人工智能可能需要很长时间来完善。

弱人工智能也是新闻报道中常见的人工智能类型。任何接近形容词“聪明”的东西都属于弱人工智能的范畴。这个人工智能可以“学习”,甚至找到自己的方式来写代码,但它的功能仅限于执行几个任务。

弱人工智能包括可以驾驶智能汽车的程序,可以为我们提供客户服务的聊天机器人,以及上面提到的AlphaGo。在这些系统中有一个“微观世界”的边界。这个边界只能由人工智能识别。这种人工智能可以被认为是某一领域的“专家系统”。然而,这些系统没有“常识”,或者不能理解它们应该如何适应更大的背景或超越“微观世界”的世界。它们本质上是集中在某个领域的复杂输入/输出系统。基于这些缺陷,它们很容易与人类智力区分开来。

互动是关键

对类人输入输出系统的关注似乎越来越受到社会对人工智能的关注。没有比作为一个人与他人交谈的能力更好的方法来衡量人类智力的幻觉了。事实上,这就是为什么我们总是特别强调图灵测试作为确定系统是否具有最佳人工智能模式的明确证据。如果一个程序能够与人类互动并通过测试,它就可以被称为人工智能。

如果我们不能通过图灵测试,即使接近通过,我们也会知道屏幕另一边的交互对象是假的,我们已经失去了对话的真正本质。然而,即使我们知道我们正在与人工智能交谈,并且人工智能能够熟练地引导对话,我们经常会对与人类互动的感觉感到惊讶。我们可能会暂停我们的怀疑,忘记我们是在和机器说话。

不幸的是,即使在人工智能服务的“微观世界”,人工智能也经常无法通过对话测试。我们几乎每天都能看到聊天机器人。微软和脸书今年早些时候已经推出了聊天机器人产品。许多公司也转向这项技术来帮助增加顾客的参与,但是Salesforce指出聊天机器人太简单了,不是必须的。解决聊天机器人问题的唯一方法是让这些系统表现得更像人。

如何发展弱人工智能

聊天机器人和人工智能之间的界面并不完美。看看西里或小娜。从技术上讲,这些聊天机器人可以被称为虚拟助理。随着时间的推移,它们会变得越来越先进。然而,这些聊天机器人没有通过图灵测试。即使他们能通过,也不能说他们有智力或感觉,因为他们不能真正理解对话的意义。就像早期斯坦福大学的交流项目伊莱扎和帕里一样,他们都需要提前编程,并且只对模拟对话做出“固定的反应”。对哲学家奈德·布洛克来说,这些系统并不比自动点唱机聪明。

但是在某种程度上,我们必须问自己:为什么人类愿意发展弱人工智能?如果你不理解弱人工智能和强人工智能之间的区别,什么样的心理会影响几乎和人类一样的聊天机器人的部署?

提供在线信息治疗的公司TalkSpace的作者约瑟夫·劳奇(Joseph Rauch)表示,人性需要在工作中得到验证。他写道:“我们经常听到潜在客户声称,他们希望能够确保与他们交谈的是人类治疗师,而不是聊天机器人。我们所有的治疗师都有资格证书,都是有血有肉的真人。但是我们理解客户的担忧。无论是在线治疗、社交媒体还是在线约会,每个人都想和真实的人联系。”

洛奇谈到了网上约会,这个领域的聊天机器人已经开始吸引人们进入他们的附属网站,即使它们的存在只是为了吸引更多的男性。但是如果这些聊天机器人用于商业呢?以军团分析公司推出的聊天机器人凯莉为例。它可以理解简短的对话,将话题带回前面提到的问题,甚至可以应对嘲笑。

如果这样的聊天机器人变得足够先进,人们会感到被操纵甚至被侵犯吗?毕竟,机器似乎比他们更了解它们。尤其是与普通人相比,这些聊天机器人真的更有能力销售产品吗?显然,要实现这些目标还有很长的路要走,但是如果聊天机器人精通对话,能够将数据库与你完整的心理信息连接起来,他们可能会使用合成信息来加强说服力,这是普通人无法做到的。

教聊天机器人理解情感

当然,赋予脆弱的人工智能人性的真正方法是教会他们理解情感,至少是模拟情感。由弗雷泽·凯尔顿创建的科科正计划这样做。克尔顿说,聊天机器人需要更多的人类情感,我们正试图为任何语音或信息平台提供移情服务。我们相信这将是你与电脑对话的世界中的关键用户体验。科科的同情应用编程接口可以虚拟地连接到任何聊天机器人上,为机器人安装一个“心脏”。

人工智能在理解人类情感的细微差别方面还有其他优势。美国医学会的最新研究显示,像Siri这样的智能手机助手在回答用户抱怨的敏感问题时表现很差。即使用户从强奸、性骚扰和性虐待中寻求帮助,他们也会嘲笑用户。在一个关于未来20年医疗保健的研讨会上,西北大学德阿莫尔-麦克金商学院副教授卡尔·纳尔逊指出,大数据在保密性和隐私方面也存在挑战,但可以用来指导决策或做出判断。在没有正确理解人类情感的情况下,人工智能如何能够快速完成医学诊断?

因此,即使是弱人工智能也需要理解甚至模拟情感,但我们可能会开发出一个“有缺陷的系统”,也就是说,它可以假装认识到人类的疾病,可以暗示用户产生的情感反应,甚至可以给出“固定的反应”。对于那些对聊天机器人知之甚少的人来说,他们能被称为人工智能机器人吗?

社会结果

随着时间的推移,这些技术将继续震撼我们。我们已经看了更多关于人工智能机器人的电影和电视节目。毫无疑问,我们再也不会把这些东西当作科幻小说的元素了,但是我们会开始怀疑它们什么时候会成为现实。像《银翼杀手》这样的电影早就提出了这些问题。安卓迪克项目最近的进展让我们意识到,我们应该尽快解决人工智能带来的伦理问题。

伦理问题不是人工智能问题的核心,比如他们是否能真正感受到或拥有权利。最引人注目的是它们会给人类带来什么样的后果。例如,你如何向孩子们解释这些与人类几乎没有什么不同的管家不是真正的人类,如果你把他们扔进垃圾桶也没关系?即使他们被杀害或强奸,也没有问题,因为他们不是真正的人,不会反抗?什么时候模仿生命变得和人类生命一样重要了?

随着时间的推移,这些都是我们必须解决的问题,但它们仍然没有简单的答案。最后,我们必须尽快确定与人工智能的关系,找出强人工智能和弱人工智能之间的模糊界限。我们希望在我们正在开发的人形机器人中,我们能够更多地了解人性,强化人性,而不是放弃人性。