2022-04-23 19:40:22 来源:网易 阅读量:11326
该公司希望通过预测错误的性别来避免冒犯用户
Gmail 的Smart Compose是 Google 多年来最有趣的 AI 功能之一,它可以预测用户将在电子邮件中写什么并主动为他们完成句子但与许多 AI 产品一样,它的智能程度取决于它所训练的数据,并且容易出错这就是为什么谷歌阻止 Smart Compose 在电子邮件中建议基于性别的代词,如他和她——谷歌担心它会猜错性别
路透社报道称,该限制是在该公司的一名研究科学家于今年 1 月发现该问题后引入的当 Gmail 建议一个后续问题你想见他吗时,研究人员在消息中输入了我下周要见一位投资者,这对投资者进行了误判
Gmail 产品经理 Paul Lambert 告诉路透社,他的团队试图通过多种方式解决这个问题,但没有一个足够可靠最后,Lambert 说,最简单的解决方案就是将这些类型的回复一起删除,谷歌表示这一变化影响不到 1% 的 Smart Compose 预测兰伯特告诉路透社,在这种情况下保持谨慎是值得的,因为性别是一件大事,容易出错
GMAIL 的性别偏见只是一个更大问题的小例子
这个小错误是使用机器学习构建的软件如何反映和加强社会偏见的一个很好的例子与许多人工智能系统一样,Smart Compose 通过研究过去的数据来学习,梳理旧电子邮件以找到它应该建议的单词和短语
在兰伯特的例子中,Smart Compose 似乎从过去的数据中了解到,投资者更可能是男性而不是女性,因此错误地预测了这一点也是如此。
这是一个相对较小的失误,但表明一个更大的问题如果我们相信使用过去数据训练的算法做出的预测,那么我们很可能会重复过去的错误在电子邮件中猜错性别并不会产生巨大的后果,但人工智能系统在医疗保健,就业和法院等领域做出决策呢就在上个月,有报道称亚马逊不得不放弃使用机器学习训练的内部招聘工具,因为它对女性候选人有偏见人工智能偏见可能会让你失去工作,或者更糟
对于谷歌来说,这个问题可能是巨大的该公司正在将算法判断整合到其更多产品中,并在全球销售机器学习工具如果其最明显的人工智能功能之一就是犯了如此微不足道的错误,那么消费者为什么要信任该公司的其他服务呢
该公司显然已经看到了这些问题的到来在Smart Compose的帮助页面中,它警告用户它使用的 AI 模型也可以反映人类的认知偏见意识到这一点是一个好的开始,围绕如何处理它的对话正在进行中 不过,在这种情况下,该公司并没有修复太多问题——只是消除了系统出错的机会
其他方面,别克SmartPod智慧驾舱将拥有800公里纯电续航里程,搭载业内创新的电池管理系统,实现无线连接和智能无线充电功能,可根据当前电量和出行计划制定充电方案。快充模式下,这款车30分钟可增加300公里续航里程。