如何防止AI变成“终结者”?
2019年01月17日 由 童童 发表
650325
0
人工智能(AI)在我们的想象中占据着超乎寻常的地位,从低俗的科幻小说到詹姆斯·卡梅隆(James Cameron)的好莱坞大片“终结者”。为地球设立的“审判日”已经安然过去,但人工智能自我保护,进而战胜人类的噩梦却一直挥之不去。就像埃隆•马斯克(Elon Musk)在Twitter上发表的言论:人工智能的危险堪比核武器的危险。
为什么这么说呢?
也许是因为人工智能的高速发展,使得机器人自我学习几天,就可达到甚至超越人类积累几百年的高度,似乎人工智能已经有了自我“进化”或“觉醒”的基础。而人工智能和机器人在武器装备上的大规模应用,也越来越多地勾起所有人心底里对“终结者”的恐惧。且人工智能已经融入了我们的日常生活。在日常的喜好推荐和个人分析等小程序中,有些时候它甚至比我们更“了解”自己。而这些,不得不让我们仔细想想它对我们的影响。
今天的人工智能对我们大多数人来说是看不见的,但却无处不在。我们最经常接触的一个例子是互联网上的推荐引擎。这些算法汇集了我们的大量个人数据,以了解我们,并整理我们的在线体验。
此外,这些算法可以被人类利用来制造更多的不和谐。民主研究员、Mozilla的员工Renee DiResta提供了数据为揭示反疫苗活动人士如何利用谷歌的算法传播危险的虚假信息。通过发布大量带有流行关键词和搜索词的误导性文章。她最近还在国会作证,讲述俄罗斯特工如何通过冒充美国新闻机构和美国选民,操纵Facebook的人工智能来影响美国选民。(注:Mozilla是一家非盈利机构,是开源Firefox浏览器的创造者,是谷歌Chrome浏览器的竞争对手。)
对于这项技术,我们真正需要重视的是我们如何负责任的、合乎道德的制造人工智能?而幸运的是,越来越多的人和公司提出了这个问题。就连微软(Microsoft)等老牌企业和Element AI等初创企业也在呼吁监管。
最后值得注意的是,少数政府也开始采取行动。2018年,纽约市市长办公室宣布成立一个人工智能监督小组。最近,加拿大和法国政府宣布了一项联合行动计划,研究人工智能与道德的交叉点。在芬兰,政府正在训练1%的人口掌握人工智能基础知识,比如人工智能的使用时间,以及“机器学习”和“神经网络”等术语的定义。
随着人工智能变得越来越普遍,如何让公众更好地了解它对社会的影响至关重要。先进的机器人能拍出好看的电影,但它们并不能准确地反映出人工智能如何在当今造成的隐患。我们需要把重点放在真正的解决方案上,比如在蓝图上的规划附有道德和负责任的技术,而不是在事后。现在,趁着人工智能还未普及到全部范围之前,我们需要预测并消除它的偏见。