“原谅宝”后又现“一键脱衣”,技术作恶该怎么解决?(3)
我们习惯了太多事情了。对社交媒体习以为常的我们,早就接受了一个来自于技术世界的观念:技术本身是没有错的,即便是技术被披上了狼皮,也是人的错,它可以作恶,也可以行善。但在今年,科技向善的价值观导向逐渐成为主流,即便有人在抨击这一观念非常模糊,也阻止不了它在这一阶段的流行程度。 但 DeepNude、DeepFake 和原谅宝的故事告诉我们,技术可以前所未有地、轻而易举地使人拥有权力,他们可以通过大数据操纵任何一个普通人的生活,让你感到恐惧,让你的一切网络隐私变成商品公之于众。它已经不再是一个单纯的技术问题,而是一个社会信任问题,从个人信任到新闻信任,我们可能陷入一个再也无法确定媒体内容是否符合事实的时代。 “深度假”技术变得越来越流行,不论是在抖音、快手上的动画特效,还是美颜相机里面的猫咪耳朵,都变花样儿地讨好人们。如果说技术本身是中立,那么道德的存在,就是为了引导技术别轻易成为“吃掉自己的巨大黑暗虫洞”。 当《Motherboard》的记者向美国加州大学伯克利分校计算机科学教授 Hany Farid 展示 DeepNude 时,得知其发展到这种程度,他感到震惊。 他说,学术界和研究人员不得不更加带有批判性的视角,考虑我们该如何推进技术,以便技术不被武器化,或以有害的方式被使用。 很多 AI 研究者也针对 DeepNude 事件发声,大多是谴责。
“我很高兴 DeepNude 死了。作为一个人和一个父亲,我认为这是人工智能最令人作呕的应用之一。”前百度首席科学家、斯坦福大学 CS 兼职教师吴恩达,在社交媒体发文表达了他的愤怒。 他还对 AI 社区说:“你拥的确有超能力,你建立的东西很重要。请将你的力量用在可以推动世界前进的有价值的项目上。”
(编辑:ASP站长网) |