投稿|AI终于通过了图灵测试?科学家却盖章“没必要”
文章图片
图片来源@视觉中国
文 | 学术头条机器会思考吗?人工智能可以像人类一样聪明吗?
一项最新研究表明,人工智能或许可以做到了 。
【投稿|AI终于通过了图灵测试?科学家却盖章“没必要”】在一项非语言图灵测试中,意大利技术研究院 Agnieszka Wykowska 教授领衔的研究团队发现,类人行为变异性(Behavioral variability)可以模糊人与机器之间的区别,即可以帮助机器人看起来更像人类 。
具体来说,他们的人工智能程序在与人类队友玩有关形状和颜色匹配的游戏时,模拟了人类反应时间的行为变异性,通过了非语言图灵测试 。
相关研究论文以“Human-like behavioral variability blurs the distinction between a human and a machine in a nonverbal Turing test”为题,已发表在科学期刊 Science Robotics 上 。
研究团队表示,这一工作可以为未来的机器人设计提供指导,赋予机器人具有人类可以感知的类似人类的行为 。
对于这一研究,林雪平大学认知系统教授 Tom Ziemke 和博士后研究员 Sam Thellman 认为,研究结果“模糊了人与机器之间的区别”,为人们对人类社会认知的科学理解等方面做出了非常有价值的贡献 。
但是,“人类相似性不一定是人工智能和机器人技术发展的理想目标,让人工智能不那么像人类可能是一种更加明智的做法 。”
通过图灵测试1950 年,“计算机科学与人工智能之父”艾伦·图灵(Alan Turing)提出了一种用于判定机器是否具有智能的测试方法,即图灵测试 。
图灵测试的关键思想是,有关机器思维和智能可能性的复杂问题,可以通过测试人类是否能够分辨出他们是在与另一个人还是与一台机器在交互来验证 。
如今,图灵测试被科学家用来评估应该在人工智能体上实现什么样的行为特征,才能使人类不可能将计算机程序和人类行为区分开 。
人工智能先驱司马贺(Herbert Simon)就曾表示:“如果程序表现出的行为类似于人类表现出来的,那我们就称它们是智能的 。” 类似地,Elaine Rich 将人工智能定义为“研究如何让计算机去做目前人做得更好的事情” 。
而非语言图灵测试,是图灵测试的一种形式 。对于人工智能来说,通过非语言图灵测试并不容易,因为它们在检测和区分其他人(物体)的微妙行为特征方面,表现得并不像人类那样熟练 。
那么,一个类人机器人是否能够通过非语言图灵测试,在其物理行为中体现人类特征呢?
在非语言图灵测试中,研究团队试图搞清楚能否通过编程让人工智能在类似于人类行为变异的范围内改变反应时间,从而被视为人类 。为了做到这一点,他们将人类和机器人安排在一个屏幕上有不同颜色、形状的房间里 。
文章图片
图|机器人与人类共同执行任务 。(来源:该论文)
当形状或颜色改变时,参与者就会按下按钮,而机器人则通过点击屏幕上显示的相反颜色或形状来响应这一信号 。
文章图片
图|通过按下按钮来响应(来源:该论文)
在测试过程中,机器人有时由人类远程控制,有时由被训练模仿行为变异性的人工智能控制 。
文章图片
图|参与者被要求判断机器人行为是预先编程的还是由人类控制的 。(来源:该论文)
结果表明,参与者可以很容易地分辨出机器人何时是被另一个人操作的 。
但是,当机器人被人工智能操作时,参与者猜错的概率却超过了 50% 。
文章图片
图|图灵测试的平均准确率 。(来源:该论文)
这就意味着,他们的人工智能通过了非语言图灵测试 。
但是,研究人员也表示,类人行为的可变性可能只是通过实体人工智能的非语言图灵测试的一个必要不充分条件,因为它在人类环境中也可以表现出来 。
人工智能,有必要像人类一样吗?长期以来,人工智能研究一直将人类相似性作为目标和衡量标准,Wykowska 团队的研究证明,行为变异性或许可以用来让机器人更像人类 。
Ziemke 等人却认为让人工智能不那么像人类可能是一种更加明智的做法,并以自动驾驶汽车和聊天机器人两个案例做了阐述 。
比如,当你在马路上准备穿过人行横道时,看到一辆汽车正在接近你,从远处看,你可能无法判断它是否是一辆自动驾驶汽车,所以你只能根据汽车的行为来判断 。
但是,即使你看到有人坐在方向盘前面,你也不能确定这个人是在主动控制车辆,还是仅仅在监控车辆的行驶操作 。
“这对交通安全有着非常重要的影响,如果自动驾驶汽车不能向其他人表明它是否处于自动驾驶模式,可能就会导致不安全的人机互动 。”
也许有些人会说,理想情况下,你并不需要知道一辆车是不是自动驾驶,因为从长远来看,自动驾驶汽车可能比人类更擅长驾驶 。但是,目前而言,人们对自动驾驶汽车的信任还远远不够 。
聊天机器人,则是更接近图灵最初测试的现实场景 。许多公司在他们的在线客户服务中使用聊天机器人,其中的对话话题和互动方式相对有限 。在这种情况下,聊天机器人通常或多或少与人类没有区别 。
那么,问题就来了,企业是否应该将聊天机器人的非人类身份告诉客户呢?一旦告诉了,往往会导致消费者产生负面反应,比如信任下降 。
正如上述案例所说明的那样,虽然从工程学的角度来看,类人行为可能是一项令人印象深刻的成就,但人机的不可区分性却带来了明显的心理、伦理和法律问题 。
一方面,与这些系统交互的人必须知道他们所交互的内容的性质,以避免欺骗 。以聊天机器人为例,美国加州自 2018 年起就制定了聊天机器人信息披露法,明确披露是一项严格的要求 。
另一方面,还有比聊天机器人和人类客服更无法区分的例子 。例如,当涉及到自动驾驶时,自动驾驶汽车和其他道路用户之间的交互并没有同样明确的起点和终点,它们通常不是一对一的,而且它们有一定的实时约束 。
因此,问题在于,关于自动驾驶汽车的身份和能力,应该在何时、以何种方式来传达 。
此外,完全自动化的汽车可能还需要几十年的时间才能出现 。因此,在可预见的未来,混合交通和不同程度的部分自动化可能会成为现实 。
关于自动驾驶汽车可能需要以什么样的外部接口来与人交流,已有很多研究 。然而,人们对于儿童、残疾人等弱势道路使用者实际上能够和愿意应对的复杂性,还知之甚少 。
因此,上述的一般规则,即“与这样的系统交互的人必须被告知交互对象的性质”,可能只有在更明确的情况下才有可能遵循 。
同样,这一矛盾心理也反映在社交机器人研究的讨论中:鉴于人类倾向于将精神状态拟人化并赋予其类似人类的属性,许多研究人员旨在让机器人在外观和行为上更像人类,这样它们就可以或多或少地以类似人类的方式进行互动 。
然而,也有人认为,机器人应该很容易被识别为机器,以避免过度拟人化的属性和不切实际的期望 。
“因此,更明智的做法可能是利用这些发现让机器人变得不那么像人类 。”
在人工智能的早期,模仿人类可能是一个业内的共同目标,“但在人工智能已经成为人们日常生活的一部分的今天,我们至少需要思考,在什么方向努力实现类似人类的人工智能才真正有意义” 。
参考链接:
https://www.science.org/doi/10.1126/scirobotics.abo1241
https://www.science.org/doi/10.1126/scirobotics.add0641
推荐阅读
- 投稿|林志颖车祸背后,锂电池的“红与黑”
- 投稿|视频号找到金钥匙,抖音模仿后来人
- 投稿|美宝莲关店,欧莱雅“偏心”
- 投稿|年轻人不爱吃糖,徐福记靠什么续命?
- 投稿|国产娱乐,长沙制造
- 投稿|微软:软瘫之下是更硬的底气
- 投稿|阿里启动「Plan B」
- 投稿|蒙牛,成不了骑士乳业的“骑士”
- 投稿|基金仓位大涨,哪些板块值得入手?
- 投稿|4.5亿融资2亿买地,经纬股份不爱主业?