对于人工智能的恐惧及其5个解决方法(2)
人工智能将会做出错误的决定,这是一个非常明确的问题。如何评估人工智能结果的准确性和有效性?如果它做出错误的选择会怎么样?(可以看到这些恐惧的某些组合是如何产生复合效应的:如果人工智能做出错误的决定而无法解释原因,将会发生什么情况?)假设所有人工智能产生的结果都是“良好”的结果,那么即使是对于人工智能应用最乐观的人士也会感到不舒服。 偏见会导致错误的决定。不过,这实际上是一种更为广泛的恐惧,这种恐惧除了其他负面影响之外,还可能导致团队不信任任何的人工智能得出的结果。当人工智能团队之外的人(或者IT部门)分析结果时,这种可能性就更大。它还可能导致组织的业务发展停滞。 Very公司工程主管Jeff McGehee说,“许多人担心人工智能会做出错误的决定。从技术角度来看,这种恐惧通常是非常广泛的,但它总是归结为人们认为“这个决定是不正确的。对于从业者来说,这一点很难确定,尤其是在无法给出‘良好’决策的量化定义的情况下。” 解决方法: 人为因素的重要性再次占据主导地位。如果人们无法量化什么是积极的结果,那么需要提出一个定性的框架,同时确保依靠正确的人员和信息组合来解决诸如偏见之类的实际问题。 McGehee说:“为了确定这样一个定义,利益相关者必须认真考虑所有可能的关于好/坏决策的定义。正确性可能是理想的,但是某些类型的错误通常更容易接受,或者更像是人为的。此外,‘正确性’可能指的是人们是否满足某些标准的预测列表,但如果此列表包含固有的人为因素偏见,这可能是一个不好的目标。当非技术利益相关者评估人工智能决策的质量时,所有这些因素都可以发挥作用。” 4.恐惧:人工智能将导致匿名性的丧失 McGehee指出了一个鲜为人知的问题,它可能成为人工智能安全中一个更引人注目的领域:当匿名性假定为给定时,将会丧失匿名性或隐私性。 McGehee说,“在以前,人工智能从业者普遍认为,一旦机器学习模型得到训练,其权重(使其能够进行预测的参数)就不包含任何可追踪的训练数据。”然而,最近出现了一些技术,这些技术将使恶意行为者能够检查经过训练的机器学习模型,并对用于训练的各个数据点进行有意义的推断。这与个人数据点是否是希望保持匿名的人有关。” 解决方法: 同样,通过认识到恐惧背后的合法问题,人们可以采取措施来解决它。在必要时保护数据的隐私或匿名性是一个组织可以采取主动措施作为其总体安全策略一部分的领域。这也是机器学习中正在进行的一个研究和开发领域。 McGehee说,“虽然这是一种有效的恐惧,但对模型权重进行适当的保护和加密可以减少它们落入坏人手中的可能性,而创造不易受这种威胁影响的新的机器学习技术将是一个活跃的研究领域。” 5.恐惧:人工智能会让人们失业 人们可能面临这个很大的恐惧,它弥合了当前现实和更多推测场景。大多数专家都认为,人工智能将会取代更多的工作岗位。在某些情况下,这将意味着失业。 在可预见的未来,越来越多的人工智能(以及更广泛的自动化)的应用比电脑时代更为广泛,当时电脑的兴起也引发了人们类似的担忧。研究发现,电脑在影响工作岗位的同时创造了更多的工作岗位。 解决方法: Nicholson说,“从历史上看,新技术不仅使工作实现自动化,而且可能带来新的工作岗位。考虑一下采用电脑完成的所有工作。新技术通常需要人们对其进行掌握、支持和维护,而人工智能也不例外。” 积极应对这种恐惧将是人工智能在商业领域成功的关键,否则人们将无法参与其中。人们将会注意到,以上这些不仅要求人类参与其中,还要积极管理组织中的人工智能。 Nicholson说,“需要理解的关键是,未来的工作将是人类与机器之间的协作。但是机器仍然需要人类来操作和维护。人工智能就是如此。”
(编辑:ASP站长网) |