加入收藏 | 设为首页 | 会员中心 | 我要投稿 漯河站长网 (https://www.0395zz.cn/)- 云服务器、混合云存储、网络、内容创作、云渲染!
当前位置: 首页 > 站长资讯 > 动态 > 正文

算法技术会固化、放大偏见

发布时间:2021-05-04 09:55:29 所属栏目:动态 来源:互联网
导读:上海大学法学院大数据与人工智能法治研究中心执行主任陈吉栋表示,狭义上的算法可以视为纯粹的技术,但随着人工智能技术及大数据的发展,它被应用于更多领域。广义上的算法是一种以构建社会秩序等目标而设定的一系列步骤。 我们常说的人工智能从某种意义上讲

上海大学法学院大数据与人工智能法治研究中心执行主任陈吉栋表示,狭义上的算法可以视为纯粹的技术,但随着人工智能技术及大数据的发展,它被应用于更多领域。广义上的算法是一种以构建社会秩序等目标而设定的一系列步骤。

“我们常说的人工智能从某种意义上讲,就是一种能学习、判断和决策的算法。”陈吉栋说,算法是一种人机交互场景下决策的新形态,在算法技术下,人类可以通过代码设置、数据运算与机器自动化判断进行决策。这个过程人机共同参与,既有人的决策也有机器的自动化决断。

既然如此,算法歧视到底是人为还是机器所为?对外经济贸易大学数字经济与法律创新研究中心执行主任张欣说,这应从算法技术架构原理说起。

“导致算法歧视的原因很多,有模型设计原因,有数据本身存在歧视的问题。”张欣说,算法本身是一项纯粹的技术,但如今算法技术深度嵌入平台经济,依据不同场景运行,有些是完全自动化决策,有些需要人为干预,但最终产生的算法结果是批量、大规模、系统性的决策,这可能会使传统世界中存在的偏见和歧视问题被系统性放大。

陈吉栋也表示,运用算法技术进行决策可能会固化和放大偏见。这是由于算法数据采集于人类,其不可避免地在数据中会掺杂人的情感认知偏见。这些数据输入终端后使得算法在模型更新迭代过程中让偏见因素进一步固化,加深偏见和歧视,例如求职类App对应聘者进行筛选时可能包含一些性别和地域偏好。

这种基于人为偏见而导致的算法模型在多个场景深度嵌入后,会出现用户在多个场景中被屡次歧视的“锁定效应”。张欣举例称,如果某个用户不恰当地被打上了“信誉低”的数据标签,通过数据标签的共享,就可能产生歧视“锁定效应”。如用户在免押租金使用共享单车的场景下因为“信誉低”被拒绝,转而发现在保险费率核定、银行贷款等更多场景下,也会遇到类似情形。

陈吉栋说,因为算法机器学习和自身的复杂性,加之部分商业平台算法的商业秘密特征,使得大多数人无法理解算法的工作原理,由此导致算法使用者处于事实上的支配地位。

(编辑:漯河站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读