谷歌发布AI开发原则,承诺其AI不会用于军事武器,但仍继续与军方和政府合作

2018年06月08日 由 浅浅 发表 364257 0
人工智能新闻资讯

谷歌今天发布了AI原则,其中包括禁止制造自动武器和对人有害的AI应用程序。在数千名员工发起抗议,谷歌宣布不会续签与美国国防部合作分析无人机影像的合同之后,这一原则终于出炉。

首席执行官Sundar Pichai在一篇博文中阐述了创建AI时应该考虑的原则,以及谷歌不会开发的AI应用。除了禁止设计自主武器之外,公司还将设法避免有害的AI应用,以及违反国际公认准则的监视收集或使用信息的技术。

Pichai称,谷歌开发的AI应该坚持科学卓越标准,对人员负责,进行安全测试,避免加强偏见。

原则内容


AI应用程序的目标

1.对社会有益。

2.避免制造或加强不公平的偏见。

3.建立并测试安全性。

4.对人负责。

5.纳入隐私设计原则。

6.坚持科学卓越的高标准。

7.提供符合以下原则的用途。

  • 主要目的和用途:技术和应用的主要目的和可能的用途,包括解决方案与有害使用有关或适用于有害使用

  • 自然和独特:我们是否提供独特或更普遍可用的技术

  • 规模:这种技术的使用是否会产生重大影响

  • Google参与的性质:我们是否提供通用工具,为客户集成工具还是开发定制解决方案


我们不会在以下应用领域设计或部署AI:

1.导致或可能造成整体伤害的技术。在存在重大伤害风险的情况下,我们只会在我们认为收益大大超过风险的情况下进行,并且会纳入适当的安全限制。

2.其主要目的或实施导致或直接促进人身伤害的武器或其他技术。

3.收集或使用信息进行监视的技术违反国际公认的规范。

4.技术的目的违反了被广泛接受的国际法和人权原则。

我们希望明确的是,虽然我们没有开发用于武器的AI,但我们将继续与政府和军队在许多其他领域开展合作。这些领域包括网络安全,培训,军人招募,退伍军人医疗保健和搜救。这些合作非常重要,我们将积极寻找更多方法来加强这些组织的关键工作,并保持服务人员和平民的安全。

争议


谷歌表示,它不会将人工智能用于军事目的,也不会使用人工智能来进行武器或监视,以此侵犯人权。但它将继续与政府和军队合作,Pichai没有提到Maven计划或员工的压力。目前尚不清楚这些指导方针是否会阻碍谷歌追求Maven合同,因为该公司一再坚持认为其在五角大楼的工作不是出于攻击性目的。

此外,与大多数顶尖的企业人工智能实验室一样,Google也公开发布大部分人工智能研究。这意味着其他人可以重新创建和利用其方法和想法,有可能会导致技术滥用。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消