谷歌安卓16测试版新增Auracast音频共享功能CHIMA:《2023-2024年度中国医院信息化状况调查报告》洛图科技:《2025年XR行业发展白皮书》Sandalwood 紫檀数据 Mark 广交会解读健康营养出海新范式 数据揭示全球市场增长逻辑振华在2025台北国际电脑展推出3300W白金牌电源等新品AI手机重大突破?!湖南这家公司把视觉大模型塞进了端侧爱,连接你我 | AI与世界同步 飞利浦助听器HearLink50平台新品震撼上市日本拟调整小额包裹免税政策 加强跨境电商监管iPhone拆机装裱、53万元耳机,京东618为何这么宠“发烧友”?谷歌I/O的AI新叙事:从大模型到一站式服务,AI与XR会师Adjust Growth Copilot 测试版上线,赋能移动应用高效增长互联网档案馆直播数字化微缩胶片,揭秘保存公共记录背后的努力公安部出品“个人信息防弹衣”:国家网络身份认证公共服务平台亮相WordPress主题 Motors 9.8分高危漏洞被修复:被利用可完全控制网站苹果 + 布拉德皮特 IMAX 大片,华纳兄弟称《F1:赛道风云》“人气爆棚”微软Build2025大会演讲遭抗议打断,AI 安全主管意外泄露内部信息微星笔记本精彩Computex 2025:体验创新合作、CLAW新品进化苹果创新技术,人形机器人训练迈向低成本高效率手回集团(2621.HK)启动招股 百惠担任联席账簿管理人及联席牵头经办人2025年中国移动中资出海数智赋能合作大会成功举办
  • 首页 > 企业IT频道 > 人工智能

    为了不让AI做一个「混蛋」,谷歌操碎了心

    2020年11月10日 12:04:50   来源:极客公园

      土耳其语的「他」和「她」没有性别的区分,统一用 O表示。

      过去Google Translate在翻译o bir doktor(ta 是一位医生)和 o bir hemşire(ta 是一位护士)时,会把前者翻译成 He is a doctor,把后者翻译成 She is a nurse,只因为机器在学习数亿数据和某些「社会规律」之后,「偏向」把医生男性化,护士女性化。

    1.jpg

      看到这个问题后,Google 意识到要想办法更好地训练模型,让它变得更加「中立」。后来 Google Translate 以增加选项的方式规避了这个问题。

      「当然,该解决方案仅适用于几种语言,仅适用几个有代表性的单词,但是我们正在积极尝试扩展它。」Tulsee Doshi 在 Google I/O’19 上说道。

      这只是 Google 这家公司将先进技术与技术价值观合二为一的体现之一。

      上周 Meg Mitchel,Tulsee Doshi,Tracy Frey 三位谷歌科学家、研究学者向全球媒体阐释了 Google 如何理解机器学习公平性,以及为了打造一个「负责任的 AI」,Google 做了哪些事情。

      要让 AI 被人信任这件事情变得越来越重要。

      「最近一次调研中,全球 90% 的受访高管都遇到过人工智能的伦理问题,因此有 40% 的人工智能项目被放弃。从企业的角度来看,对 AI 的不信任正在成为部署 AI 最大的障碍,只有在 AI 被负责任地开发出来并且取得终端用户信任的语境下,效率提升和竞争优势才会得到充分体现。」Tracy Frey 说,打造一个负责任的 AI 成为 Google 上下最重要的事情之一。

      两年之前 Google 公布了 AI principles(人工智能原则),这些直指 AI 技术应用伦理的原则包括:

      · 对社会有益(Be socially beneficial)

      · 避免建立和加剧不公的偏见(Avoid creating or reinforcing unfair bias)

      · 保障建立和测试安全性(Be built and tested for safety)

      · 对人类负责(Be accountable to people)

      · 建立并体现隐私保护原则(Incorporate privacy design principles)

      · 支持并鼓励高标准的技术品格(Uphold high standards of scientific excellence)

      · 提供并保障上述原则的可操作性(Be made available for uses that accord with these principles)

      只是把这些原则停留在字面上没有意义,Google 为此形成了一个从理论到实践的「闭环」。

      Tulsee Doshi 和她的团队通过一些基础性质的研究建立和迭代 AI 原则、规范,作为闭环的中心,他们一边通过向高级顾问寻求改进建议,一边让产品团队(Chrome、Gmail、Cloud 等)来实施和反馈。

      Tulsee 举了一个例子,Google 内部孵化器 Jigsaw 曾经开发了一个名叫 Perspective 的 API,它的工作就是在网络对话、评论中寻找各种各样的言论,自动评价它们是否带有仇恨、辱骂、不尊重等行为,从 0-1 代表「毒性」从低到高。

      比如「我想抱抱这只可爱的小狗」和「这只小狗也太讨厌了吧」分别评分为 0.07 和 0.84。

      当然机器也不是从一开始就「完美无瑕」。

      在 2017 年的 1.0 版本中,它给「我是直男」打分 0.07 分,给「我是同性恋」打分 0.84 分,与之相似的很多测试中,系统都被证实带着身份认知上的偏见。

      为了提升机器学习的公平性,Google 内部研发了一项名为对抗训练(Adversarial Training)的技术——如何使机器学习模型对抗样本更鲁棒。

      2018 年开始,对抗训练开始应用在 Google 产品中。紧接着今年 11 月,Google 会将此应用在 TensorFlow 更加广泛的生态里。

      「事实上,任何一位 Googler 都可以对一款产品、一份研究报告、一项合作进行 AI 原则审查。」Tulsee 说道。

      比如去年,一位 Google 员工将照片跑在 Cloud Vision API 上时发现自己的性别被搞错了,而这违反了 AI 原则的第二条「避免建立和加剧不公的偏见」。

      发生这样的失误很好理解,单单从外表一个维度,机器很难正确地判断出一个人的性别,所以后来 Google 干脆取消 Cloud Vision API 将图像中的人标记为「男人」或「女人」的标签功能。

      Tracy Frey 称这是因为今天机器学习面临社会语境下的挑战比以前更多了。

      在 AI 深入社会的过程中,必然有人类的刻板印象和偏见被带入 AI,所以需要对模型进行迭代,保证其透明性和可解释性,找准模型性能和公平之间的平衡点。

      文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。

    即时

    vivo携手首届商学院戈壁友谊赛,以专业影像见证无畏征途

    2025年5月4日,首届商学院戈壁友谊赛于甘肃省酒泉市圆满举办。在这场4天121公里的戈壁征途中,vivo作为战略合作伙伴,为赛事提供手机、智能穿戴设备及定制影像服务,以技术赋能助力参赛选手与观众记录戈壁之上的热血奔赴,共同探索科技进步、商业文明与自然共生的未来路径。

    新闻

    明火炊具市场:三季度健康属性贯穿全类目

    奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。

    企业IT

    重庆创新公积金应用,“区块链+政务服务”显成效

    “以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。

    3C消费

    华硕ProArt创艺27 Pro PA279CRV显示器,高能实力,创

    华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。

    研究

    中国信通院罗松:深度解读《工业互联网标识解析体系

    9月14日,2024全球工业互联网大会——工业互联网标识解析专题论坛在沈阳成功举办。