近期由多伦多大学和麻省理工学院的计算机科学家团队进行的实验发现,当前AI模型的设计存在严重问题,可能给人类带来灾难性后果。这是因为使用描述性标签训练的AI系统往往做出比人类更为苛刻的决定。
随着AI已经广泛渗透到我们生活的方方面面,如语音助手提醒、健康机器人诊断、判决算法建议监禁时间等,未来几乎所有领域都将由算法作为守门人。然而,如果AI算法的训练存在缺陷,那么在申请租房、贷款、手术或工作等方面,频繁被拒可能并非纯粹的倒霉,而是因为背后的公司在AI算法训练方面存在问题。
研究人员通过一系列实验发现,人们在附加描述性标签和规范标签时有时会给出不同的反应。具体而言,描述性标签强调客观陈述,而规范标签则包含价值判断。他们在一项实验中使用了狗的图像数据集,其中一组参与者对数据附加描述性标签,另一组对规定禁止侵略性狗的政策有所了解并附加规范标签。
结果显示,那些不知道公寓规定但被要求评论侵略性的描述性标签者相比那些知道规定并附加规范标签的人,无意中判定了更多的狗违反了规定。这一实验结果对人类生活的方方面面都有着深远的影响,尤其是对于不属于主导子群体的人群。
比如,在设计评估博士申请者的算法中,如果数据偏向某一类人,算法可能会将高分、名校背景、种族为白人定义为成功的标志,从而继续强化社会中的偏见和不平等。目前,这一问题在我们周围已经普遍存在,比如在美国广泛使用的定罪算法被发现错误地认定黑人被告更有可能再犯罪,尽管事实证明相反。
这种问题不仅限于种族,还包括性别、种族和年龄等方面的偏见,而AI算法的决策却比人类的判断更为危险,因为它们不仅仅是复制已有的社会偏见,还可能产生比社会偏见更糟糕的结果。研究人员强调,这种相对简单的AI数据集标注过程如果不当,可能成为一个时钟炸弹,导致不可逆转的后果。
在这个算法主导的时代,关键是要及早纠正这一问题,以避免对人类生活造成严重影响。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。