“人工智能”(ARTIFICIAL INTELLIGENCE)一词自1956年DARTMOUTH会议上提出,不到百年的时间,各种不同认知实属正常。ChatGPT(Chat Generative Pre-trained Transformer),是美国OpenAI研发的聊天机器人,是一个原型人工智能聊天机器人,专注于可用性和对话,自2022年11月30日发布以来,引发全世界范围再一次关注AI的热潮。
科技改变了人类的生活方式,每一位个体沉浸在互联网的便捷中,也被网络深深绑架,不能放弃、无法排斥,我们只能适应和迎合。人工智能存在的第一位因素是海量数据,数据是人工智能的喂料,大数据是由个人信息、企业数据所组成,数据的生成、保存、使用、流传必然涉及个人信息、个人隐私保护的问题,早在2013年《消费者权益保护法》修改之时,对消费领域个人信息保护提出了规范的要求,经营者采集个人信息要以合法、公开、必要为原则。2017年《民法总则》在第110条“隐私”之外第111条规定了“个人信息”,2020年《民法典》第110条、第111条全盘接受该立法模式。再一次引发诸多问题的思考,个人信息的性质,个人信息与隐私的关系的大讨论,多数民法专家认为个人信息是人身权的客体,也有部分专家认为个人信息属于财产权的客体,少部分专家认为个人信息属于个人信息权的客体,个人信息权属于新型民事权利。我在2018年《东方法学》第3期“人工智能智力成果在著作权法的正确定性”一文中,提出人工智能不再是“物”,或者不再是“一般的物”,而是像人一样思考、理性采取行动的智能系统,人工智能是类人的一种新“物种”,我也大胆地认为,将人工智能拟制为民事主体是迟早的事情,只是立法技术问题。人工智能智力成果(生成物)频现我们的生活之中,法律不能视而不见,当人工智能智力成果与人的智力成果无法区分之时,智力成果是机器所完成,还是人所完成,还是人机一体共同所完成,成为难以定论的难题。判断作品的要件是独创性,而非其他条件,独创性强调的是“独立完成”,而不是强调作者的思想和情感延伸。人工智能智力成果和人创作的智力成果,差异已经很小,甚至人工智能智力成果的价值远远超过了人所创造智力成果的价值,法律再行区分保护已经非常不经济、甚至无能为力,法律不保护人工智能智力成果也不利于产业的发展。
ChatGPT能与人对话,根据人的指令和要求,创作出智力成果。马上有部分学术期刊发出声明,拒绝刊登ChatGPT创作的论文。律师、教师等职业将被人工智能所取代,造成大量失业的声音不绝于耳。有数据输入和传输,必然有数据的泄露和泄密的问题,ChatGPT出现了泄露个人信息和企业商业秘密的问题。随即一阵反对ChatGPT发展的歪风刮起,特斯拉首席执行官埃隆·马斯克(Elon Musk)、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)联合更多的企业家,向社会发出呼吁,应当暂停推进AI等类似技术的研究和发展。意大利、德国、法国、爱尔兰等8国相继明确表态,应当对AI的发展予以严格监管。
我多年来坚持的观点认为,AI的发展是互联网高速发展阶段的产物,不以人的意志所转移,人类是AI的发明者,也是AI造福人类的受益者。法人在民法领域作为无生命的组织成为民事主体,讨论了近百年才被法律正式确立,法人像人一样能参与诉讼,能独立承担民事责任,必要时候还能犯罪和承担刑事责任。人工智能成为民事主体也会经历同样的争论和讨论,我一再相信,我们像对待法人制度一样来对待人工智能的民事主体地位,也是一个不错的选择。人工智能可以像人一样能参与诉讼,能独立或者与人一起承担民事责任,甚至承担刑事责任。人工智能成为新的民事主体没有理论障碍,古罗马时代早就发端“法律拟制”技术,人工智能本来已经不是物,把人工智能作当做人对待本身就是一种法律拟制。但是在学界,多数学者认为,创作作品的主体只能是自然人,因此人工智能智力成果或者生成物绝对不可能是作品,不受著作权法保护,部分朋友似乎沉浸在德国等大陆法系国家的著作权理论里不愿醒来,认为只有自然人才能创作作品,他们选择性遗忘,早在1990年我国著作权法中规定“法人可以视为作者”,法人和其他组织在我国早就可以是作品的作者、作品的著作权人。
法律永远是滞后的,产业永远是超前的,关于新领域、特别是关于科技领域的法律、包括监管政策,一定让产业先行,一定让子弹飞一会,不宜过早采用严格限制的监管政策。国家互联网信息办公室于2023年4月11日发布了《生成式人工智能服务管理办法(征求意见稿)》,是国家针对生成式人工智能监管的第一份规范文件。这次是我国互联网发展史上革命性的举措,我国并没有像意大利等国,严格限制AI发展,过高估计AI对社会的危害,我国采取了表面严格监管,其实是鼓励AI产业发展的监管措施。
总体有以下一些亮点,值得分享。
《办法》第二条第一次提出了“生成式人工智能”概念并且进行定义。该条将生成式人工智能定义为:基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。虽然该定义把生成式人工智能定义为“新技术”,但是已经确立了人工智能生成内容,诸如文本、声音、视频、代码等内容的价值和地位,这些内容当达到著作权法独创性的标准,则应当受到著作权法的保护。
明确确立了人工智能生成物的地位,不再是“无名”的存在。这是充分尊重产业发展的现实需求的体现,也是充分重视人工智能生成物的价值的体现,也为下一步规范人工智能产业发展打下坚实基础。
《办法》第一条确立了AI监管的上位法依据,我国是依法监管,而不是轻率而为之。为促进生成式人工智能健康发展和规范应用,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规,制定本办法。我国对个人信息保护、数据开发利用,有明确的法律规定,在保证数据安全、网络安全的前提下,从严保护个人信息和个人隐私,对数据的开发、管理、利用、流转,本着合法、公开、合理、诚信、必要等原则,国家鼓励对数据的开发利用。对人工智能的监管,我国坚持在保障数据安全、网络安全的前提下,鼓励大数据、人工智能产业大力发展。
《办法》第二条,研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。
本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。
该条确立了大数据、人工智能监管的域内和域外效力。人工智能产品和服务常常跨越国境进行,只要向中华人民共和国境内公众提供人工智能研发、利用生成式人工智能产品和服务,不管提供者在中国境内或者境外,统统适用本《办法》。
《办法》第三条,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。
该条再一次明确,国家鼓励大数据产业发展,鼓励和支持算法推荐、工具、模型等新技术在AI领域适用,认可其合法地位。
《办法》第四条,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:
利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。
在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。
尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。
利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。
《办法》第五条,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
《办法》第七条,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:
符合《中华人民共和国网络安全法》等法律法规的要求;
不含有侵犯知识产权的内容;
数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;
能够保证数据的真实性、准确性、客观性、多样性;
国家网信部门关于生成式人工智能服务的其他监管要求。
《办法》第九条,提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。
《办法》第十一条,提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。
《办法》第十二条,提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。
《办法》第十三条,提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。
《办法》第十四条,提供者应当在生命周期内,提供安全、稳健、持续的服务,保障用户正常使用。
《办法》第十九条,提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
《办法》第二十条,提供者违反本办法规定的,由网信部门和有关主管部门按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。
以上条款只是强调,就是《办法》没有规定,也可以依据其他法律、行政法规予以规制,任何主体在中华人民共和国境内从事数据采集、开发利用、人工智能研发、利用、提供服务等活动,必须遵守我国法律、行政法规等关于诚实守信、合法、公平公正等原则,不得从事违法、侵权、犯罪等行为,否则要承担相应法律责任。
《办法》第八条,生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。
《办法》第十条,提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。
《办法》第十五条,对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。
《办法》第十六条,提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。
《办法》第十七条,提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。
人工智能毕竟属于新的事物,发展中必然存在信息泄露、侵犯个人隐私、数据安全、网络安全等行为发生,对人工智能技术、产品、服务等作以标识和区分,在产业发展的早期确实有一定的必要,也能减少部分人对人工智能带来变化的不可预测性的担忧。在未来人工智能的发展中,人工识别技术又会是一段时期中,监管常用的手段之一。
总之,该《办法》总体精神是鼓励人工智能产业的发展,同时对从事人工智能开发、研究、利用等相关行为的合法性,不得违法和侵权等进行了强调,同时还提出符合人工智能早期发展的特殊的监管措施和法律责任,相信能促进我国人工智能产业的健康发展。