首页 / 新闻 / 对话AI专家:“种族主义、性别歧视和能力主义都是系统性问题”

对话AI专家:“种族主义、性别歧视和能力主义都是系统性问题”

作者: 兆光科技 发布时间: 2024/04/27 点击: 10061次

随着人工智能的不断发展,越来越多的问题也凸显了出来。这篇文章来自编译,作者在文中介绍了知名 AI 专家 Meredith Broussard 关于编码偏见的研究,并探讨了在技术系统中可能存在的真正社会危害。文中还讨论了医疗算法中的种族偏见和一些人工智能技术的使用问题,并提出了算法审计的潜力和应用,以及人工智能在医学领域的表现问题和可能带来的风险。

梅雷迪思·布鲁萨德(Meredith Broussard)。图片来源:Maria Spann

梅雷迪思·布鲁萨德(Meredith Broussard)是一位数据记者和学者,她是纽约大学(New York University)亚瑟·L.卡特新闻学院的副教授,其研究重点是人工智能存在的偏见。她一直致力于提高人们对未加约束的人工智能的警醒意识。

在 2018 年出版的《人工无智能》(Artificial Unintelligence)这本书中,她创造了“技术沙文主义”(technochauvinism)这个术语,用来描述相信技术解决方案可以解决人类问题的盲目信仰。

她还参与录制了 2020 年在流媒体播放平台 Netflix 播放的纪录片《编码偏见》(Coded Bias)。这部纪录片主要讲述了人工智能和机器学习系统呈现出的种族偏见和性别偏见的问题。

前不久,布鲁萨德又出版了一本新书——《绝不是小问题:科技中的种族、性别和能力偏见》(More Than a Glitch: Confronting Race, Gender and Ability Bias in Tech)。

事实上,技术系统中可能存在偏见的新闻并不是什么新鲜事。为什么您会出版这本书呢?

这本书旨在帮助人们了解可能潜藏在技术中的真正社会危害。大量优质新闻报道和学术研究都提到过算法偏见,以及其已经对人们造成的危害。我希望在这些报道和思考的基础上再往前走一步。除此之外,我还希望人们知道,现在已经有了衡量算法系统偏见的方法。它们并非完全无法知晓的黑匣子。相反,我们已经有一套可以用于实施的算法审计方法。

为什么这个问题“绝不是小问题”?当算法使用具有偏见的数据集进行训练时,可能会导致其具有种族主义和性别歧视的倾向。因此,是不是唯一的解决办法就是使用更具代表性的数据呢?

“小问题”表示的是一种可以轻松解决的暂时问题。我认为,种族主义、性别歧视和能力主义都是系统性问题,由于这些问题都深深地根植于我们的社会中,属于“根深蒂固”的问题,所以也会存在于技术系统中。对此,如果只是简单地增加数据或者进行表面上的修补,肯定是不够的。

以批准抵押贷款的算法为例,研究发现,这些算法拒绝有色人种借款人的可能性比白人借款人高出 40% 至 80%。究其原因,是因为这些算法是根据过去抵押贷款发放数据而进行训练的。在美国,“贷款歧视”问题由来已久。因此,我们不可能从数据端来解决算法问题,因为根本不存在所谓更好的数据。

您认为,我们应该在允许进入到我们生活和社会的技术方面更加谨慎。那么,您是否认为我们应该直接拒绝任何存在编码偏见的人工智能技术呢?

如今,几乎所有技术都在广泛采用人工智能技术。但我们完全可以让技术为每个人提供良好的服务,并且我们可以在是否采用这些技术方面做出更加深思熟虑的选择。

我对欧盟拟议的《人工智能法》(AI Act)草案中所提出的区分高低风险人工智能的概念特别感兴趣。低风险的面部识别应用可以是通过人工智能技术来解锁你的手机,其中的风险不高,如果这个方法不管用,你还可以通过输入密码来解锁手机。然而,在执法过程中使用面部识别技术则是一种高风险的用途,需要对其进行监管,或者更理想的是,完全不采用这项技术,毕竟它也会导致错误逮捕,并且效果不佳。因此,我们并非一定要使用计算机来完成所有的任务。不能仅仅因为某项技术客观存在于我们的生活或社会中,就认定它一定是好的。

许多人都对使用人工智能来辅助诊断疾病感兴趣。但其中也会存在种族偏见,这种情况主要是因为不具代表性的数据集(例如,诊断皮肤癌的人工智能系统可能在较浅肤色上的诊断结果更准确,因为其训练过程中主要参考的就是这些数据)。那么,正如 2021 年发表于《科学》(Science)杂志的一篇研究报告所提到的那样,我们是否应该针对医疗算法中的偏见设定“可接受的阈值”?

我认为现在来探讨这个问题还为时过早。目前,我们仍然需要提高人们对医疗方面的种族主义问题的认识。在我们开始将其编码成算法之前,我们需要缓一缓,先解决社会上的一些问题。一旦将种族主义决策编码成算法,它就变得难以被发现和消除了。

您之前被诊断出患有乳腺癌,后来也接受了成功的治疗。确诊后,您尝试通过一个开源的癌症检测人工智能系统来分析自己的乳腺 X 光片,并发现它确实能检测出你患有乳腺癌的事实。这个系统成功地检测出了你的乳腺癌,那这算是人工智能的好消息吧?

当我看到人工智能在扫描图像时使用红色方框标记出我的肿瘤区域时,我感到非常惊奇。但通过这项试验,我发现,这类诊断型人工智能的精度比我想象的要低一点,需要权衡各种复杂的因素。

例如,开发人员必须在准确率方面做出选择——更多的假阳性还是假阴性?他们倾向于选择前者,因为宁可误判也不能错过,但这也意味着,如果出现假阳性结果,你会进入诊断流程,在随后的几周时间里,你可能就要展开各种检查,而且还会经历恐慌。

在很多人眼中,未来机器肯定会取代医生,这样的未来都是光鲜亮丽且美好的。但对我来说,这听起来没有任何吸引力。

我们是否有望改进我们的算法?

我对算法审计的潜力持乐观态度。算法审计这个过程实际上就是检查算法的输入、输出和代码,以评估其是否存在偏见。我已经做了一些关于这方面的工作,旨在关注算法在特定上下文中的使用情况,解决所有利益相关者(包括受影响群体成员)的各方面问题。

现在,人工智能聊天机器人非常热门。但这项技术也充斥着偏见。OpenAI 公司推出的聊天机器人虽然增加了一些防护措施,但仍然很容易被规避。我们是哪里做错了吗?

尽管还需要做更多的工作,但我对这些防护措施表示赞赏。过去并没有这些防护措施,所以这算是一种进步。人工智能也会出错,这是完全可以预见的,因此我们不应该再感到惊讶了。

我们在 ChatGPT 中看到的问题也是人工智能伦理研究人员所预料到的,相关研究发现也提及到了这些问题。其中,知名的研究人员还包括 2020 年被谷歌解雇的蒂姆尼特·格布鲁(Timnit Gebru)。我们需要认识到这项技术并非神奇的存在。它是由人们开发出来的,因此,它肯定会存在问题,也会出现故障。

OpenAI 公司的联合创始人山姆·阿尔特曼(Sam Altman)前不久在推广人工智能医生,以此作为解决医疗危机的一种方式。他似乎在暗示一个两层医疗体系,一个是专为富人服务的体系,他们可以直接咨询人类医生,另一个是为我们其他人服务的,即我们所了解的人工智能医生。您认为事情会朝着这个方向发展吗?对此你是否感到担忧?

人工智能在医学中的表现并不是特别好,因此,如果一个非常富有的人说:“嘿,你可以让人工智能帮你做医疗诊断,人类医生将主要服务于我们。”那在我眼中,这似乎就是一个问题,而且这一局面恐怕也无法引领我们走向更美好的世界。此外,这些算法最终将普及到所有人,因此,我们最好能解决这些问题,确保所有人都能从中受益,而不是让富人享受更好的医疗服务。


标签: AI

版权申明:本站文章部分自网络,如有侵权,请联系:hezuo@lyzg168.com

特别注意:本站所有转载文章言论不代表本站观点,本站所提供的摄影照片,插画,设计作品,如需使用,请与原作者联系,版权归原作者所有

联系我们

输入您的联系信息,我们将尽快和你取得联系!

洛阳兆光网络科技有限公司

Tel:15137991270

企业QQ:210603461

Emile:hezuo@lyzg168.com

地址:洛阳市西工区王城大道221号富雅东方B座1711室

网站:https://www.lyzg168.com

洛阳app开发,洛阳app开发公司,洛阳手机软件开发,苹果保上架,洛阳网站开发,洛阳网站制作,洛阳微信定制开发

我们的微信

关注兆光,了解我们的服务与最新资讯。

Copyright © ​2018-2019 洛阳兆光网络科技有限公司 豫ICP备18025879号