从虚拟助手到自动驾驶汽车,再到医学影像分析,基于深度学习架构的现代人工智能技术的使用近年来急剧增加。但是,是什么让我们相信这些技术能让我们安全到达目的地而不会冲出马路?为什么我们认为某些形式的人工智能比其他形式的人工智能更值得信赖?
这可能取决于我们认为该技术拥有多少代理权。现代人工智能系统通常被认为在不同程度上具有代理能力(即显示出思考、计划和行动的能力)。值得深思的是,不同程度的感知代理如何影响人类对人工智能的信任。
现代人工智能似乎具有代理能力
代理感对于信任至关重要。在人际关系中,信任的基础是相信你所信任的人能够独立行事并做出自己的选择。举例来说,如果某人可能会采取某种行动,因为他们在这件事上没有选择,那么就没有必要信任他们。只有当受托人具有某种程度的代理权,并因此可以在可能使委托人受益或受损的行为方式之间做出选择时,信任才具有相关性。
现代人工智能系统与老式的、基于规则的人工智能技术相比,可以被视为拥有更大的能动性,因为它们依靠的是连接主义方法(涉及从数据或与环境的互动中学习的神经网络),而不是符号方法(基于人类设计师创建的严格、固定和预定义的规则)。
与老式人工智能技术相比,现代人工智能系统能够更加独立地根据原始编程做出决定,因此其行为的可预测性较低,从而使人们对其有意性和自由意志有了更高的认识。当用户不了解人工智能如何得出结论时,他们更有可能认为人工智能具有代理权。
人工智能代理和信任
我们的研究为代理感知和信任增加了两个新观点。
首先,当人工智能技术似乎具有相当程度的代理权时,信任感主要来自于人工智能本身。傀儡越活灵活现,它的线就越不引人注意。但如果人工智能被认为代理程度低,信任就更多地依赖于其设计者的可信度。之所以会出现这种转变,是因为代理认知会影响谁被视为要对人工智能的行为负责。
其次,人类天生厌恶背叛,这阻碍了信任。当与被认为拥有高代理权的实体打交道时,这种厌恶感会更加强烈,因此,人工智能技术违反信任的预期心理成本会随着它的代理权程度而增加。如果感知代理度高的人工智能技术失败或违背用户利益,那么与代理度较低的技术相比,用户的背叛感会更强烈。
对人工智能开发者的启示
人工智能开发者可以利用几种策略来增加人类对人工智能的信任。这些策略包括增强人工智能的自主性(即赋予其更大的决策能力而无需咨询人类)、提高其可靠性(即提高性能)、提供更大的透明度(即解释其决策和行动的逻辑)以及将其拟人化(即使其在外观和能力上更像人类)。
然而,正如我们的模型所概述的那样,旨在激发对人工智能信任的干预措施可能会产生相反的效果。举例来说,设计师通常会努力让人工智能看起来更像人类,以增加人们对这项技术的信任。为此,他们会赋予人工智能一些表明其具有更高能动性的特征,比如赋予自动驾驶汽车和虚拟助手以姓名、性别和声音。由于人类通常被认为具有能动性,因此这些类人人工智能系统的用户认为它们也具有能动性。虽然这可能会让人工智能显得有能力和仁慈,从而赢得更多信任,但这可能会被对背叛的担忧所抵消甚至抵消。
因此,人工智能开发者必须在感知的代理程度与预期的信任结果之间取得平衡。如果不加以谨慎管理,过分强调让人工智能看起来像人类,可能会适得其反。以透明的方式传达系统的能力和局限性有助于管理用户的期望,并培养适当的信任度。
归根结底是信任
人类对人工智能的信任是多方面的,并受到人工智能的代理程度的显著影响。通过强调代理感知影响信任动态的细微方式,我们提供了一个框架,设计者和决策者可以用来更好地理解和预测人工智能的信任度。
不过,是否应该首先增强人类对人工智能的信任在很大程度上取决于具体情况。如果有充分的理由相信,怀疑态度阻碍了人们使用能为他们带来益处的人工智能系统,我们的分析就会提供干预措施,通过增强或抑制人工智能的感知代理能力来帮助克服这一问题,从而减少背叛厌恶情绪并增进信任。
与此相反,有些情况下存在过度依赖人工智能的风险。这种情况在某些医疗应用中已有记录,而且随着ChatGPT和Gemini等大型语言模型的迅速普及,这种情况尤其令人担忧。在这种情况下,设计者可以利用我们的发现有意识地改变机构的认知,以降低人类对人工智能系统的信任度。