谷歌禁用基于性别的代词,避免AI在自动完成句子过程中出现偏见
2018年11月28日 由 浅浅 发表
276862
0
谷歌于5月推出了一款灵活的Gmail功能,可以在用户输入时自动完成句子。输入“我爱”,Gmail可能会自动给出“你”或“它”。但是用户也可能想要表达“他”或“她”。
但谷歌的技术不会提出基于性别的代词,因为风险太高,其“智能撰写”技术可能会错误地预测某人的性别或性别认同并冒犯用户。
Gmail产品经理Paul Lambert表示,公司研究科学家在1月份发现了这个问题,当时他打字“我下周会见投资者”,而Smart Compose提出了一个可能的后续问题:“你想和他见面吗?”而不是“她”。
消费者已经习惯于在智能手机上自动更正带来的尴尬。但是,在性别问题正在重塑政治和社会的时候,谷歌拒绝冒险,批评者正在以前所未有的方式仔细审查AI的潜在偏见。Lambert说,“性别出错是一件大事。”
获得智能撰写权利可能对业务有利。证明谷歌比竞争对手更了解AI的细微差别,这是该公司为其品牌建立亲和力并吸引客户使用其AI驱动的云计算工具,广告服务和硬件的战略的一部分。
Gmail拥有15亿用户,而Lambert表示,全球范围内Gmail发送的信息中,Smart Compose占了11%。
Smart Compose是AI开发人员称之为自然语言生成(NLG)的一个例子,其中计算机通过研究文学,电子邮件和网页中的单词之间的模式和关系来学习写句子。
包含数十亿个句子的系统变得善于完成常用短语,但受到普遍性的限制。例如,人们长期主导金融和科学等领域,因此该技术将从投资者或工程师是“他”或“他的”这样的数据中得出结论。这个问题几乎波及所有主要的科技公司。
Lambert表示,由大约15位工程师和设计师组成的Smart Compose团队尝试了几种解决方法,但没有一种能够证明是无偏见的。他们认为最好的解决方案是最严格的解决方案:限制覆盖范围。性别代名词禁令影响Smart Compose提议的案例不到1%。
“唯一可靠是保守,”Prabhakar Raghavan表示,他负责监管Gmail和其他服务的工程。
新政策
谷歌决定在性别问题上保持安全,因为公司的预测技术收到了一些质疑。2015年其照片服务的图像识别功能将黑人夫妇称为大猩猩。在2016年,谷歌改变了搜索引擎的自动完成功能,因为当用户寻求有关犹太人的信息时,它暗示了反犹太人的疑问“犹太人邪恶吗”。
谷歌已经禁止其预测技术出现脏话和种族歧视言论,也禁止提及其商业竞争对手或悲惨事件。禁止性别代词的新政策也影响了谷歌智能回复中可能的回复列表。该服务允许用户使用短语如“sounds good”立即回复短信和电子邮件。
谷歌使用其AI道德团队开发的测试来发现新的偏见。Lambert说,一个垃圾邮件团队会攻击系统,试图像黑客或记者那样思考,以找出错误。
Smart Compose很快将支持其他四种语言:西班牙语,葡萄牙语,意大利语和法语。“你需要进行大量的人为监督,”工程领导人Raghavan表示,“因为在每种语言中,代表不恰当的网络必须要覆盖到不同的东西。”