人工智能的“性别”研究

2019年12月27日 由 TGS 发表 701880 0
如果人工智能是人类智能的模拟,那么它模拟的是谁,它有性别吗?无论你认为性别是由一个人所处环境和所受文化构成的社会结构,还是从本质论角度来看的生物性决定因素,亦或者,是坚持个体差异理论决定的,怎样都好,不可否认的是,性别很重要。

它常常影响我们如何被感知,和我们能做什么。从事某一职业的机会,我们的汽车导航系统是否识别或忽略我们的语音命令,性别都占据着一定的影响。在人工智能研究领域,女性化身最常用来扮演虚拟助手。这使得一种观点永久化,即帮助类角色最好由女性来扮演。

今年早些时候,墨尔本举行的一次数字健康会议上,一位医学专家承认,25年前,当他还是一名乡村全科医生时,他误诊了一名女性患者,差点要了她的命,原因是他从未在女性患者身上看到过那种疾病。由此,可以得出一个结论,根据他的经验,他的操作数据集是有偏见的。同样地,人工智能的偏见是由于我们这个世界固有的偏见。

它存在于基于知识系统获取的专业知识中,开发预测模型的数据集中,以及各种软硬件中。更糟糕的是,由于人工智能的特殊性,这种偏见变得更加隐蔽,在人类难以解释理解的深度学习等方法中,这种偏见尤为致命。为了让人工智能技术同时满足男性女性的需求,男女都应该成为创新ns的目标,参与这些系统的设计,并在数据集和评估中表现出来。例如,在确定在预测模型的训练中包含或排除哪些特性时,需要避免无意识的偏见。但是,鉴于目前的性别差距,这并不是一个简单的轻松任务。

在全球范围内,女性在工程和信息技术教室和工作场所的比例偏低,在印度约为30%,在其他国家则明显更低;这导致产品和技术的设计大多以男人为本。在人工智能研究中,这一比例接近10%。

政府、大学、行业和更广泛的社会需要共同努力,制定一个伦理框架,在不忽视认知退化、对自主权的威胁、问责制、隐私、安全、歧视、社会影响和经济影响等问题的情况下,利用人工智能的好处。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消