中文 English

您当前所在位置:首页 > 新闻资讯

新闻资讯

立法建议|王竹:对《生成式人工智能服务管理办法(征求意见稿)》的完善建议(条文版)

时间:2023-05-11

对《生成式人工智能服务管理办法(征求意见稿)》的完善建议(条文版)




王竹(四川智慧社会智能治理重点实验室主任、四川大学法学院教授)


编者按:本建议核心内容以《生成式人工智能立规的几点建议》为题发表在《上海法治报》2023年5月10日B6版“法治论苑”栏目。本文是提交给中央网信办的完整条文版。


草案内容:

GPT-4于2023年3月14日正式发布,百度紧接着于3月16日发布文心一言,标志着国内外生成式人工智能竞赛正式进入多模态时代。4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见,体现出网信领域立法一贯的及时性。四川智慧社会智能治理重点实验室智慧法治研究所先后召开4期智治社慧学术工坊(AegIsS Seminar),组织法学、计算机科学与技术、数学、计算语言学等多学科背景团队进行头脑风暴,就《管理办法》征求意见稿提出如下主要完善意见:


标题

《生成式人工智能服务管理办法》


完善建议


建议修改为“生成式人工智能技术管理办法”或者“生成式人工智能管理办法”。征求意见稿存在规范对象属性表述不统一的问题:


第一,征求意见稿正文中共出现16次“生成式人工智能”,其中3次作为“生成内容”的手段(第4/18条),1次并未说明属性(第1条),1次作为“技术”(第2条),7次作为“产品”(第2/4/5/6/7/8/19条),仅有3次作为“服务”(第7/9/20条),且有1次作为“产品或服务”(第4条)。从第4条“产品或服务”的表述看,立法者认为“产品”与“服务”性质不同,但在办法正文中,“生成式人工智能”7次搭配“产品”出现,3次搭配“服务”出现,说明征求意见稿标题并不能准确体现办法内容。


第二,从立法目的来看,《国家互联网信息办公室关于〈生成式人工智能服务管理办法(征求意见稿)〉公开征求意见的通知》中提到征求意见稿的起草是为了“促进生成式人工智能技术健康发展和规范应用”,此处“生成式人工智能”搭配“技术”,与标题中的“生成式人工智能服务”并不相同。


建议征求意见稿标题改为“生成式人工智能技术管理办法”或者“生成式人工智能管理办法”,具体理由如下:一方面,从征求意见稿中技术性条款的规定来看,征求意见稿第2条第2款规定:“本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。”从本款规定可以看出,“生成式人工智能技术”的定位为“生成式人工智能服务”和“生成式人工智能产品”的基础,修改标题中的表述为“生成式人工智能技术”或者“生成式人工智能”可以将“服务”和“产品”纳入到标题的概念范围内。另一方面,上述表述不统一问题的解决方案为修改标题或者修改全文,这样扩大标题表述范围的修改方式不仅更加合理,且修改成本也较低。


第一条

为促进生成式人工智能健康发展和规范应用,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规,制定本办法。


完善建议


第一,第1条第一小句建议修改为“为促进生成式人工智能行业健康发展,规范生成式人工智能技术应用”。“促进”的是对象应该是行业发展,“规范”的对象应该是技术应用,这样实现的才是“管理”的目标。


第二,建议将《中华人民共和国民法典》作为征求意见稿第1条规定的上位法依据之一,全文参照《民法典》《网络安全法》《数据安全法》《信息保护法》等上位法拟定的条文应当在表述上与被参照条文保持一致。


第二条

研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。


本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。


完善建议


本条第1款建议修改为:“研发、运营和使用生成式人工智能产品,面向中华人民共和国境内和中华人民共和国公民提供服务的,适用本办法。”理由如下:


第一,对于“研发、利用”改为“研发、运营和应用”,一方面,细化了“利用”的范围,明确了生成式人工智能日常的运营、维护者属于本办法的适用范围,另一方面,将“利用”改为“应用”更加符合《网络安全法》等法律法规的表述习惯。


第二,将“面向中华人民共和国境内公众”改为“面向中华人民共和国境内和中华人民共和国公民”,即将本办法的适用范围由“属地主义”改为“属地主义+属人主义”。从维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益的角度出发,本办法不仅要规范面向中华人民共和国境内公众的生成式人工智能服务提供者,还应当最大限度地避免我国公民在境外接受不符合本办法要求的服务。


本条第2款建议修改为:“本办法所称生成式人工智能,是指基于人工智能技术创建文本、图片、音频、视频、代码等新内容的技术。”理由如下:


第一,算法、模型、规则这些概念之间存在重叠,且并不能完全涵盖人工智能技术,建议将上述概念统称为“人工智能技术”。


第二,生成式人工智能的重点在于“生成”,因此此处应当强调生成的内容为“新”内容,而非对网络已有内容的“搜索引擎式”的复制推荐,并避免著作权风险。


第三条

国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。


完善建议


本条建议修改为:“国家支持生成式人工智能相关基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的硬件、软件和数据资源。”理由如下:


算法与框架、软件与工具、计算和数据等概念之间存在含义交叉重复,“算法、框架等基础技术”建议修改为“相关基础技术”,“软件、工具、计算和数据资源”建议修改为“硬件、软件和数据资源”。


本条建议增加第2款:“鼓励生成式人工智能的研究和应用使用清洁能源,主动降低计算资源的碳排放量。”理由如下:


一方面,鼓励生成式人工智能的研究和应用使用清洁能源符合《民法典》第9条“绿色原则”,即“民事主体从事民事活动,应当有利于节约资源、保护生态环境”,同时也符合我国实现碳达峰、碳中和的重大战略决策。另一方面,如果放任生成式人工智能行业盲目无序发展,将可能严重影响我国达成节能减排目标,本办法应当对该领域未来可能出现的乱象作出预防性规范。


第四条

提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:


(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。


(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。


(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。


(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。


(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。


完善建议


建议本条中“尊重社会公德、公序良俗”的表述改为“不得违背公序良俗”。一方面与《民法典》第8条“民事主体从事民事活动,不得违反法律,不得违背公序良俗”保持一致,另一方面社会公德与公序良俗两个概念存在语义重复。


建议本条第1项改为:“(一)利用生成式人工智能生成内容,应当弘扬社会主义核心价值观,不得煽动颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,传播暴力、淫秽色情信息,编造、传播虚假信息扰乱经济秩序和社会秩序。”该项内容参照了《网络安全法》第12条第2款,但在参照起草过程中因为做了结构上的调整,以至于出现了表述不通顺的问题,应当予以改正。


建议本条第2项改为:“(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,应当采取措施防止出现民族、宗教信仰、性别等歧视。”因为“等”字的存在,歧视的类型无需列举太多,且要和第12条表述保持一致。“信仰”建议修改为立法表述中常用的“宗教信仰”。


建议本条第4项改为:“(四)在利用生成式人工智能生成内容过程中,应当采取合理必要措施防止生成式人工智能生成的内容包含虚假信息。生成内容涉及政治、军事、法律、医学和伦理等特殊领域的,应当特别提示内容应该咨询专业人士意见。”对于专业性内容,应当特别提示需要咨询专业人士意见,以免“魏则西事件”重演。


建议本条第5项改为:“(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权、荣誉权、隐私权、个人信息,侵犯知识产权。禁止非法获取、披露、利用个人信息、隐私、商业秘密和国家秘密。”与《民法典》的相关规定保持表述一致。


第五条

利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。


完善建议


建议本条改为:“利用生成式人工智能提供产品或服务的组织和个人(以下称“提供者”),包括通过提供可编程接口、接入硬件等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,提供者应当对其个人信息处理活动负责,并采取必要措施保障所处理的个人信息的安全。”


一方面,调整本条前段表述,增加“接入硬件”等支持方式;另一方面,根据《个人信息保护法》第9条,调整本条后段表述。


第六条

利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。


完善建议



第七条

提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。


用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:


(一)符合《中华人民共和国网络安全法》等法律法规的要求;


(二)不含有侵犯知识产权的内容;


(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;


(四)能够保证数据的真实性、准确性、客观性、多样性;


(五)国家网信部门关于生成式人工智能服务的其他监管要求。


完善建议


建议本条第2款第4项改为:“(四)能够保证数据的真实性、准确性、客观性与高覆盖率;”理由如下:


训练数据质量决定了最终产品的性能。“多样性”主要是出于训练数据样本充足和分布均匀的考虑,即训练数据中应该尽可能包含所有样本,且相对均匀。“高覆盖率”的概念包含“多样性”且重点更加突出,即“尽可能包含所有样本”。


第八条

生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。


完善建议


建议本条中“抽样核验标注内容的正确性”改为“并抽样核验标注内容是否符合规则”。


第九条

提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。


完善建议



第十条

提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。


完善建议


建议本条改为:“提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施预防用户过分依赖或沉迷于生成内容。”


参照《未成年人保护法》关于网络游戏、直播等服务提供者设置防沉迷措施的规定,建议本条增加第2款:“提供者应当设置未成年人、老年人等特殊人群的防沉迷系统,坚决防止针对未成年人、老年人等特殊人群的沉迷性生成式人工智能服务,切实保护未成年人、老年人等特殊人群的身心健康。”“等”特殊人群主要是指精神障碍患者。


第十一条

提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。


完善建议



第十二条

提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。


完善建议


建议本条改为:“提供者不得根据用户的民族、宗教信仰、性别等进行带有歧视性的内容生成。”因为“等”字的存在,歧视的类型无需列举太多,且要和第4条第2款表述保持一致。


第十三条

提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。


完善建议


参照《民法典》相关条文的表述,建议本条改为:“提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、音频、视频等侵害他人肖像权、名誉权、荣誉权、隐私权、个人信息、商业秘密和国家秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。”


第十四条

提供者应当在生命周期内,提供安全、稳健、持续的服务,保障用户正常使用。


完善建议


建议修改为:“提供者应在服务周期内,提供安全、稳健、持续的服务、保障用户正常使用。”理由如下:


“生命周期”通常是指软件的生命周期,即从软件生成到软件报废的整个过程,包括前期的设计和开发等,本条的“生命周期”实际上是指面向用户的“服务周期”。


第十五条

对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。


完善建议


建议本条将“应在3个月内通过模型优化训练等方式防止再次生成”改为“应在3个月内通过模型优化训练等方式防止再次生成类似内容”。


第十六条

提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。


完善建议


建议本条改为:“提供者应当按照《互联网信息服务深度合成管理规定》对生成内容进行标识,并提供高效、及时查证生成内容的服务。”本条修改增加查证内容真实性的服务,主要目的是为了预防谣言的产生与传播。


建议第16条后增设一条规范代码生成

建议条文:“利用生成式人工智能技术提供生成、修复代码等服务,应当符合国家标准的强制性要求,不得以设置技术漏洞、恶意代码或者其他方式危害网络安全。”


第十七条

提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。


完善建议


建议增加第2款:“网信部门对于依法履行生成式人工智能技术服务监管职责过程所知悉的个人信息、隐私和商业秘密,应当严格保密,不得泄露、出售或者以其他方式非法向他人提供。”


第十八条

提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销。


用户发现生成内容不符合本办法要求时,有权向网信部门或者有关主管部门举报。


完善建议


建议本条第1款改为:“提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人肖像权、名誉权、荣誉权、隐私权、个人信息等其他合法权益,不进行商业炒作等不正当竞争。”一方面,“肖像权、名誉权、荣誉权、隐私权、个人信息等其他合法权益”与《民法典》的表述保持一致。另一方面,“商业炒作”属于“不正当营销”的手段之一,更准确的表述应为“不正当竞争”。


建议本条第2款改为:“任何组织和个人发现生成内容不符合本办法要求时,有权向网信部门或者有关主管部门举报。”将“用户”改为“任何组织和个人”,调整表述,加强语气。


建议本条增加第3款:“任何组织和个人使用生成式人工智能服务,不能泄露国家秘密。”


建议第18条后增设一条细化举报平台规定

建议条文:“国家网信部门应当协调工业和信息化、公安等部门建立健全生成式人工智能安全举报制度,统一设置举报平台,并公示举报电话、电子邮箱,接受社会各界对危害网络安全行为进行举报。


负责处理举报事项的有关部门应当自受理举报之日起十五个工作日内向举报人答复处理意见。


有关部门应当对举报人的相关信息予以保密,保护举报人的合法权益。”


第十九条

提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。


完善建议


建议本条将“违背商业道德、社会公德行为时”改为“违背公序良俗”,与《民法典》第8条“民事主体从事民事活动,不得违反法律,不得违背公序良俗”的表述保持一致。


建议将“实施不正当的商业营销”前的逗号改为顿号。


第二十条

提供者违反本办法规定的,由网信部门和有关主管部门按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。


法律、行政法规没有规定的,由网信部门和有关主管部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。


完善建议


建议本条第2款第1句并入第1款。


第二十一条

本办法自2023年 月 日起实施。


完善建议


无。