@@@@人工智能(AI)已经可以预测未来。@@@@警察正在用它来绘制犯罪可能发生的时间和地点。@@@@医生可以利用它来预测病人何时最有可能心脏病发作或中风。@@@@研究人员甚至试图赋予AI想象力,以便它能计划意想不到的事情。@@@@@@@@生活中的许多决策都需要好的预测,而AI几乎总比我们更善于预测。@@@@然而,尽管所有这些技术都在进步,我们似乎仍对AI预测极度缺乏信心。@@@@最近的案例表明,人们不喜欢依赖AI,而是更愿意信任人类专家,即使这些专家错了。@@@@@@@@如果我们希望AI真正造福于人类,我们需要找到方法让人们信任它。@@@@为此,我们要理解为什么人们一开始就不愿意信任AI。@@@@@@@@以技术行业巨头IBM的一个超级计算机项目沃森肿瘤计划为例。@@@@他们向癌症医生推广项目的尝试是场公关灾难。@@@@AI承诺就12种占世界病例80%的癌症提供高质量的治疗建议。@@@@但当医生初次与沃森互动时,他们发现自己的处境相当困难。@@@@一方面,如果沃森提供与自己观点一致的治疗指导,医生们认为沃森的建议没有多大意义。@@@@超级计算机只是给出了他们已经知道的信息,这些建议并没有改变实际治疗。@@@@@@@@另一方面,如果沃森提出的建议与专家的意见相矛盾,医生通常会得出沃森没有能力的结论。@@@@这台机器无法解释为什么它的治疗是合理的,因为机器的算法太复杂了,人类无法完全理解。@@@@因此,这引起了更多的怀疑和不信任,导致许多医生忽略了看似极不寻常的AI建议,并坚持自己的专业知识。@@@@@@@@这只是人们对AI缺乏信心和不愿接受AI提供的信息的一个例子。@@@@对他人的信任往往基于我们对他们的思考方式及可靠性的了解。@@@@这有利于创建一种心理上的安全感。@@@@而AI对大多数人来说仍然非常新鲜和陌生。@@@@即使技术上可以解释(虽然情况并非总是如此),但AI的决策过程通常对大多数人来说太难理解。@@@@与我们不理解的东西互动会产生焦虑,并给人们一种我们正在失去控制的感觉。@@@@@@@@许多人也根本不熟悉太多关于AI实际工作的实例,因为AI一般在后台运行。@@@@相反,他们敏锐地意识到AI出错的清况。@@@@尴尬的AI失败受到媒体的过度关注,强调我们不能依赖技术这一信息 。@@@@机器学习不是万无一失的,部分原因在设计他们的人并非万无一失。@@@@@@@@人们对AI的感觉根深蒂固。@@@@在最近的一次实验中,来自不同背景的人观看了关于AI的各种科幻电影 ,然后被询问了有关日常生活中的自动化的问题。@@@@研究发现,无论他们所看的电影是从正面还是负面角度来描述AI,仅仅是一部有关未来科技的电影也会使态度两极分化。@@@@乐观者对AI的热情变得更加极端,怀疑论者也变得更加谨慎。@@@@@@@@这表明人们以有偏见的方式使用关于AI的相关证据来支持他们现有的态度,这种根深蒂固的人类倾向被称为“确认偏见”。@@@@随着AI在媒体和娱乐领域的代表性越来越高,它可能导致在AI中受益的人和拒绝AI的人产生社会分裂。@@@@更贴切的是,拒绝接受AI提供的优势可能会使一大群人处于严重不利地位。@@@@@@@@幸运的是 ,关于如何提升对AI的信任度我们已经有了一些想法。@@@@前面提到过的研究表明,只要以前有在AI方面的经验,就可以显著改善人们对这项技术的看法。@@@@还有证据表明,人们使用互联网等其他科技越多,就会越信任它们。 @@@@@@@@另外一种解决方案可能是透露更多有关AI使用的算法及其服务目的的信息。@@@@一些知名社交媒体公司和网上商城已经发布了有关政府要求和监控披露的透明度报告。@@@@对AI采取类似做法可以帮助人们更好地了解算法决策的方式。@@@@@@@@研究表明,允许人们对AI决策有一定的控制力也可以提高信任度,并且可以使AI从人类的经验中学习。@@@@例如,一项研究表明,当人们被允许可以自由地稍微修改一个算法时,他们会对算法的决策更满意,更可能相信它的优越性,将来就更可能会使用它。@@@@@@@@我们不需要了解AI系统错综复杂的内部运作,但如果人们被赋予某种程度的关于如何实施AI的责任,他们将更愿意接受AI进入其生活。@@@@