当我们再也看不到对方的肢体语言时,同事之间的交流就会变得充满挑战。轻微的人会溃烂并发展成大问题。根据康奈尔大学的研究,在我们的文本或电子邮件中使用智能回复可以避免这些问题。原因?出现问题时,人们更有可能责备机器,而不是其他人。
信息科学与信息科学领域的博士生Jess Hohenstein说:“我们发现事情出错时,人们会承担原本应指定给其人类伴侣的责任,并将其中的一部分指定给人工智能系统。”该论文的第一作者“人工智能是一个道德的折磨区:中介的人工智能交流对归因和信任的影响。”
研究人员的研究结果基于113名学生参与者对现已淘汰的消息传递应用程序Google Allo的使用,该应用程序基于其算法和用户的对话历史记录提出了建议。学生被要求与他们认为是另一位研究参与者的人聊天,但实际上是一位研究人员,他正在使用预先编写的脚本控制对话的动态。
对话分为四类:与AI答复的正面对话,与AI的负面对话以及没有AI的正面或负面对话参与者被要求为自己,他们的对话伙伴和AI系统分配一定比例的任务结果责任使用时。他们还被要求评估他们对他人和AI的信任程度
在成功的对话中,参与者对合作伙伴的信任度平均为4.8,满分6;在AI介导的对话中,成功率为5.76。在不成功的对话中,参与者对AI的信任度为3.13,比其合作伙伴的3.04高。
“当情况恶化时,技术可以吸收影响。”
霍恩斯坦(Hohenstein)于5年前开始这项研究,但随着过去几个月来越来越多的人被迫在家中工作,这项研究获得了新的关注。
“整个文件是由道德崩溃区的启发,”合着者马尔特荣格,在康奈尔大学信息科学的助理教授和主任的在组实验室的机器人,告诉逆。“当情况恶化时,技术可以吸收影响。它使人们可以将负面的东西投射到其他地方。”
荣格提出了可能发生这种情况的一些原因。
他说:“将责任推到其他地方可能会更容易,尤其是当您不得不告诉某人他们的面孔是他们的错误时。” “当出现问题时,这可能是我们责备技术的普遍趋势。没有任何个人成本。尤其是当您以小组形式看待冲突时,技术可以充当避雷针。”
研究人员还对当冲突发生时AI充当调解人的潜力感到好奇。因此,如果算法检测到可能被误解的语句,它将提供澄清建议。
Jung和他的团队对AI和其他技术如何影响我们的交流方式感兴趣。(另一项实验发现,装配了麦克风的麦克风可以自动转向扬声器,这实际上促进了对话。)例如,通过智能回复,该技术的数据集可能是基于白人模式的交流而产生的。
尽管这项最新研究对我们在交流技术上的使用产生了积极影响,但Jung表示,他希望人们更多地考虑聪明的答复可能对我们产生的微妙影响。
他说:“当您更改给人的明智答复时,您可以更改他们的沟通方式。” “创建这项技术的目的是使我们的生活更轻松,但也有潜在的负担。它改变了我们与他人互动的基本方式。”
AI介导的通信(AI-MC)代表了一种新的范式,其中智能系统增强或生成了通信。随着AI-MC变得越来越普遍,重要的是要了解它对人类互动和人际关系的影响。先前的工作告诉我们,在人与智能系统的交互中,错误归因是普遍现象,信任的建立和处理方式与人与人之间的交互方式不同。这项研究在受试者设计之间使用了2(成功与不成功的对话)x 2(标准与AI介导的消息传递应用程序)2来探讨AI调解是否对归因和信任有任何影响。我们证明了AI生成的智能回复的存在有助于增加人类交流者之间的感知信任,并且当事情出现问题时,AI似乎被视为一种强制手段,使其可以像道德崩溃区一样发挥作用,并减轻了分配给其他人类传播者的责任。这些发现表明,聪明的回答可以用来改善对话者之间的关系和对话结果的认知。通过说明在这种类型的AI-MC中,仅当通信出现问题时,才认为AI具有代理权,因此我们的发现也增加了有关智能代理中感知代理的现有文献。