如今的人工智能热潮将放大社会问题
2023年05月23日 由 Camellia 发表
773155
0
如果我们现在不采取行动,如今的人工智能热潮将放大社会问题,人工智能伦理学家说。
在互联网数据上训练的人工智能系统有可能强化负面偏见并造成社会危害。Salesforce的Kathy Baxter解释了如何解决这个问题。
人工智能开发人员必须迅速采取行动,开发和部署解决算法偏见的系统,Salesforce人工智能伦理实践首席架构师Kathy Baxter说。在接受ZDNET采访时,Baxter强调需要在数据集和用户研究中实现多样化的代表性,以确保公平公正的人工智能系统。她还强调了在保护个人隐私的同时使人工智能系统透明、可理解和负责任的重要性。Baxter强调需要跨部门合作的必要性,就像美国国家标准与技术研究院(NIST)使用的模型一样,以便我们能够开发强大而安全的人工智能系统,使每个人都受益。
人工智能伦理的基本问题之一是确保人工智能系统的开发和部署不会强化现有的社会偏见或创造新的偏见。为了实现这一目标,Baxter强调了询问谁受益以及谁为AI技术付费的重要性。考虑正在使用的数据集并确保它们代表每个人的发言权至关重要。开发过程中的包容性和通过用户研究识别潜在危害也至关重要。
“这是我们必须讨论的基本问题之一,"Baxter说。"尤其是有色人种的女性,多年来一直在问这个问题并在这个领域做研究。我很高兴看到许多人在讨论这个问题,特别是使用生成式人工智能。但是从根本上说,我们需要做的事情是问谁受益,谁为这项技术付费。哪些人的发言权被纳入其中?"
社会偏见可以通过用于训练它们的数据集注入人工智能系统。 包含偏见的非代表性数据集,例如主要是一个种族或缺乏文化差异的图像数据集,可能会导致有偏见的人工智能系统。 此外,在社会中不均衡地应用人工智能系统可能会使现有的刻板印象永久化。
为了使人工智能系统对普通人来说是透明和可理解的,在开发过程中优先考虑可解释性是关键。诸如“思维链提示”等技术可以帮助AI系统展示其工作,并使决策过程更易于理解。用户研究对于确保解释清晰且用户可以识别人工智能生成内容中的不确定性也至关重要。
保护个人隐私和确保负责任人工智能的使用需要透明度和许可。 Salesforce遵循生成式负责任人工智能的指导方针,其中包括尊重数据来源,仅在征得同意的情况下使用客户数据。 允许用户选择加入、退出或控制其数据使用对隐私至关重要。
“只有在征得客户同意的情况下,我们才会使用客户数据,”Baxter说。 “当你使用某人的数据时,保持透明,允许他们选择加入,并允许在他们说不希望自己的数据被包含时返回,这真的很重要。”
随着人工智能创新竞争的加剧,保持人类对日益自主化的人工智能系统的控制和自主性比以往任何时候都更加重要。 授权用户能够就使用人工智能生成内容做出明智的决定,并让人类了解情况,有助于保持控制。
确保人工智能系统安全性、可靠性和可用性至关重要;要实现这一目标,全行业的合作至关重要。Baxter赞扬了NIST创建的人工智能风险管理框架,该框架涉及来自各个行业的240多名专家。这种协作方法为识别风险和共享解决方案提供了一种通用语言和框架。
如果不解决这些人工智能伦理问题,可能会产生严重的后果,例如面部识别错误或产生有害图像而导致错误逮捕。投资于保障措施,关注当下而不仅仅是未来的潜在危害,可以帮助缓解这些问题,并确保负责任地开发和使用人工智能系统。
虽然人工智能的未来和通用人工智能的可能性是耐人寻味的话题,但Baxter强调了关注当下的重要性。今天确保负责任人工智能的使用和解决社会偏见将使社会为未来的人工智能进步做好准备。通过投资于人工智能伦理实践和跨行业合作,我们可以帮助为人工智能技术创造一个更安全、更包容的未来。
“我认为时间线非常重要,"Baxter说。"我们真的必须在现在进行投资,创造这种肌肉记忆,创造这些资源,创造允许我们继续前进但又能安全进行的法规。"