新世纪以来,人工智能发展很快,无人驾驶、物联网、大数据等新技术更新迭代,带来新产业蓬勃发展、新业态层出不穷,给人类生活带来大便利。但新技术是也双刃剑,新产业也隐含新风险。对此,如霍金生前说人工智能:一方面,它极大的方便了人们的生活与工作,“人工智能甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等”。另一方面,由于人工智能的发展蕴涵着不可控性的危险,“人类必须建立有效机制,尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。”
在全国两会上,不少代表认为,需平衡创新激励与风险规制,建议通过立法规范应用过程。致公党上海市委专职副主委邵志清代表表示,当社会行为主体中出现“人工智能”这个新门类,应该明确人工智能与自然人的行为划分。当人工智能“犯了错”,智能机器人的使用者、制造者和机器人本身都要承担相应责任,但这些法律责任应进行严格的区分。2015年7月曾发生德国大众公司的机器人“杀人事件”,一名工作人员被正在安装的机器人突然抓起重重摔向金属板而不治身亡。邵志清认为,“传统刑法领域只有自然人才是刑法规制的主体,然而在人工智能应用场景下,很多机器成为了主体。”现有法律已经难以规范此类问题,需要对人工智能的应用场景管理进行立法。他建议,人工智能应用场景的管理应重点围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面进行立法,让人工智能服务造福而不是困扰危害人类社会。
“凡事预则立,不预则废”。人们要在认识新技术的积极作用同时,也要对其危害一面作精准研判,并妥善应对,如此方可充分用其利而消其害。对此,早在1950年出版的美国著名科幻小说家艾萨克・阿西莫夫撰写的《我,机器人》小说中,就提出了著名的“机器人三大定律”:第一定律,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观;第二定律,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。总之,要让机器人完全处于人类的控制之下,以防止其出现越规行为。此后,这“三大定律”不断激发出对于人工智能安全性的新思考。
为此,当今许多国家在发展人工智能的同时,,也启动了相关的立法立规。我国于2017年7 月也发布了《新一代人工智能发展规划》,在强调要构筑我国人工智能发展先发优势的同时,也提出了要逐步建立完善人工智能的法律法规、伦理规范和政策休系。不过,近年人工智能技术发展很快,需要进一步加强这方面工作。全国人大代表陈力说,科技发展离不开法制保障,而从目前来看,我国科技法体系呈现出一定的滞后性。因此,今年两会他提交的议案,建议修改现行的《科学技术进步法》。
全国人大首场记者会传出信息:全国人大常委会已将一些与人工智能密切相关的立法项目,如数字安全法、个人信息保护法和修改科学技术进步法等,列入本届五年的立法规划;专门针对人工智能的立法,亦将列入抓紧研究项目。这表明人工智能也将有法可依,在法制保障下更好地趋利避害,引导和规范新技术的研发和应用,更好的推动社会发展,为人民造福。