可解释的人工智能:4个关键行业(2)
Purohit解释道,“在这种情况下,我们向用户展示了由人工智能驱动的多种可能的维修指导建议选项,并且每个响应的置信区间都是可能的答案。用户可获得每个选项,这有助于持续学习过程,并改进未来的建议。这样,我们不会只给用户单一的选择,我们允许用户在各个选项之间作出明智的决定。对于每个建议,我们还向用户显示了知识图输出这个高级功能,以及在人工智能培训阶段使用的输入,以帮助用户了解有关为什么结果被优先排序和相应评分的参数。” 3.保险行业 就像医疗保健行业一样,人工智能对于保险行业可能会产生深远的影响,但信任、透明度、可审计性是绝对必要的。 Cognitivescale公司创始人兼首席技术官Matt Sanchez说:“人工智能在保险领域有着许多潜在的使用案例,例如客户获取、代理生产率、索赔预防、承保、客户服务、交叉销售、政策调整,以及提高风险和合规性。”他指出,埃森哲公司最近的一项调查发现,大多数保险业高管预计人工智能将在未来三年内彻底改变其行业。 但这绝对是一个有相当大影响的领域。只需考虑关键的保险类别就可以感受到这些影响,例如生活、业主、健康、员工补偿等等。Sanchez表示,可解释的人工智能将非常重要;建议人们思考这些问题,而每个问题也适用于其他领域: 人工智能能否解释它是如何获得这种洞察力或结果的? 应用了哪些数据、模型和处理来获得其结果? 监管机构可以访问并了解此人工智能的工作原理吗? 谁在访问什么以及何时访问? 4.自动驾驶汽车 可解释的人工智能最终应该是使人工智能提供最大的价值。 PubNub公司首席技术官兼联合创始人Stephen Blum表示,“了解人工智能服务为什么做出某种决定,或者了解是如何获得某种洞察力,这对于人工智能从业者更好地整合人工智能服务至关重要。例如自动驾驶汽车的人工智能系统将如何构建与车辆交互的方式,这对乘坐人员来说将面临很大的风险,因为这意味着其决定生死攸关。” 事实上,自动驾驶汽车无疑是人工智能发挥重要作用的新兴领域,可解释的人工智能将是成为其最重要的领域。 Kinetica公司首席执行官Appleby解释了这种情况的重要性。他说,“如果一辆自动驾驶汽车发现自己处于不可避免的危险境地时,应该采取什么措施?优先保护乘客却将行人置于危险之中?还是为了避免撞到行人而危及乘客安全?” 因此,获得这些问题的答案并不简单。但这将给出一个非常直接的结论:人工智能的黑盒模型在这种情况下不起作用。无论对于乘客还是行人,都必须解释清楚,更不用说汽车制造商、公共安全官员等相关人员。 Appleby说,“我们可能对自动驾驶汽车的响应并不认同,但我们应该提前了解它所遵循的道德优先事项。通过企业内部建立的数据治理,汽车制造商可以通过跟踪和解释模型从决策点A到Z点的方式来跟踪数据集,从而使他们更容易评估这些结果是否符合他们采取的道德立场。同样,乘客也可以决定他们是否愿意乘坐做出某些决定而设计的车辆。” 这可能是一个严峻的现实,但同样有一个基本原则,这包括那些不是生死攸关的场景。可解释的人工智能是改进和优化的人工智能技术,这是IT领导者思考人工智能的另一种方式。 Blum说,“如果人工智能系统出错,其构建者需要理解为什么会这样做,这样才能改进和修复。如果他们的人工智能服务在黑盒中存在并运行,他们就无法了解如何调试和改进它。”
(编辑:ASP站长网) |