人工智能带来了确确实实的风险
发布时间:2022-10-18 10:15 所属栏目:16 来源:互联网
导读:一切源自 2019 年 11 月的一条推特:知名科技企业家大卫海涅迈尔汉森(David Heinemeier Hansson)强烈抨击苹果新推出的信用卡,称其为妻子提供的信用额度比自己低 20 倍,是赤裸裸的性别歧视。 这些指控以野火之势蔓延开来,汉森强调,做出上述性别歧视行为
一切源自 2019 年 11 月的一条推特:知名科技企业家大卫·海涅迈尔·汉森(David Heinemeier Hansson)强烈抨击苹果新推出的信用卡,称其为妻子提供的信用额度比自己低 20 倍,是赤裸裸的“性别歧视”。 这些指控以野火之势蔓延开来,汉森强调,做出上述性别歧视行为的罪魁祸首,是当前被广泛用于做出贷款决策的人工智能。“苹果代表的意图并不重要,重要的是他们完全信任的算法。被信任的算法做出的却是歧视行为。这太糟糕了。” 尽管苹果及其承销商高盛(Goldman Sachs)去年已经被美国监管机构判定违反了公平放贷规则,汉森关于“人工智能歧视”的上述指控再次引发了一场更为广泛的围绕公共和私营行业人工智能使用的辩论。 为了提高效率,各机构正越来越多地将日常任务自动化以削减成本,欧盟的政治家们正计划推出首个全面的全球人工智能监管模板。 但最大的危险之一就是无意的偏见,系统所使用的算法最终会拒绝向女性、移民或有色人种等部分群体提供贷款或账户。 人工智能分析存在的部分问题在于,大多数人工智能模型只能从提供给系统的历史数据中反馈出学习信息,这就意味着它们将会了解之前给哪些客户贷过款,以及哪些客户被标记为失信人员。科齐安斯基说:“有一种风险存在,即系统会对‘诚信’借款人的‘长相’产生偏见。值得注意的是,性别和种族往往在人工智能的决策过程中发挥作用,而这些决策过程是基于人工智能所训练出来的数据——所考虑的因素与个人偿还贷款的能力毫不相关。” 除此之外,一些模型在被设计时没有考虑所谓的受保护特性,也就意味着它们不打算考虑性别、种族、族裔或残疾的影响。但这些人工智能模型仍然可以通过分析邮政编码等其他数据特征对客户进行区分,这些数据的来源可能是之前从未有过申请、担保、偿还或抵押贷款历史记录的弱势群体。 (编辑:ASP站长网) |
相关内容
网友评论
推荐文章
热点阅读