人工智能立法,行业规范化的必然与开始
2020年01月21日 由 TGS 发表
925790
0
人工智能技术正在改变世界,也在重塑着人类社会,人类社会长期的价值关键、法律规则等都面临着挑战,人工智能发展的问题逐渐浮出水面。回溯2019年,智能音箱劝主人自杀、AI编写假新闻,反映的就是人工智能作为新事物给传统伦理和法律带来的挑战;识别性取向、未来被机器人所取代职业涉及到现代社会发展与人类平权的矛盾问题;自动驾驶事故频发,则体现了社会对技术权责认定机制的需求;监测头环、AI换脸、杭州人脸识别第一案是大众最为关心的安全隐私问题。
立法是行业发展一定程度后的必然,也是一个行业规范化的开始。
人工智能立法
人工智能发展与应用的诸多问题,除了引发舆论关注与行业自省之外,各国政府也在抓紧研究行业法规政策。中国早在2017年推出《新一代人工智能发展规划》时就提出要初步建立部分领域的人工智能伦理规范。2019年十三届全国人大二次会议更是将与人工智能密切相关的立法项目,如数字安全法、个人信息保护法和修改科学技术进步法等,列入会议的五年立法规划中。欧盟则在2018年发布了《通用数据保护条例》,将用于识别身份的生物特征定义为敏感数据;美国加州也通过法案进一步限制人脸识别等技术的应用。
这表明,处于人工智能技术应用前沿的主要国家和地区,都开始向人工智能立法的前沿迈进。但就全球来看,AI治理仍然是一个面临巨大挑战的新课题。如何完善人工智能相关法律法规,做到既能打破既有规则对人工智能科技和产业发展的束缚,又能防范因技术滥用而造成的负面影响和危害,考验着各国管理部门的智慧,也是行业可持续发展不得不面临的问题,是必然,更是迈入正轨的开端。
人工智能发展基于其科技特点以及极具颠覆性的经济应用潜能,如果不提前应对和防范,其可能带来的社会负外部性,毫无疑问会比既有的任何科技都更加复杂和严重。首先,人工智能发展可能带来的负外部性,许多是整体性或共同性的。主要体现为两个方面,即可能引发系统的社会公平和平等问题,以及可能引发社会安全和风险问题。
其一,人工智能基于其应用可能导致社会不公平、不平等,主要是因为人工智能作为一种更具颠覆性的技术,容易使得先用者取得一种科技极差优势和事实上的科技垄断优势。
其二,不仅会使得财富和福祉分配不公平,甚至也可能导致赢者通吃的吸利效应,使得后用者或者各种原因被排除在人工智能技术之外的人,特别是利益相关者,有可能会成为新技术的弱势群体。
不同的思路
人工智能立法,总体上需要坚持两重性。一方面,仍然致力促进人工智能科技的经济意义。另一方面,必须引入和提升人工智能科技社会规范,这是极为急迫而重要的,严重点说,刻不容缓。
人工智能立法新范式的两重性布局,应以全新的价值观和更加合理的原则体系作为基础。鉴于人工智能的巨大科技风险,特别是基于其具有与人相通的认知能力,对人本身构成了混淆或者替代威胁。
一种正在成为主流的声音认为,人工智能立法的价值基础需要提升一个高度,即,应从最基本的人本主义来思考,以人的基本安全为底线,提出人与人工智能这种特殊人造物(也可以是打引号的“人造人”)的最低关系准则。学者和机构将之称为人工智能和机器人应用的基本伦理框架,以此作为人工智能规范和政策的最高指导。
另一种观点是,坚持人的价值的原初本体性,坚持人工智能的价值与人的价值一致性,在二者发生冲突时以人的价值为优先。《联合国世界人权宣言》和一系列相关文本宣示的,是人的价值的重要国际规范来源,但人的价值性应该不限于此。
以上两种观点殊途同归,或者说差异不大。都是以人为本,人的价值观居于最高位,但还存在对于其他功能性或类型化价值追求。
人工智能立法作为科技立法的特别领域法,应当注意一般与具体的结合,还要注意自身与其他法律的交叉。既拥抱人工智能的经济福利,又发展和保全人类自身和社会。简单来说就是,小孩子才会做选择,大人当然是全都要!新的时代,或许真的不远了。