会议议程丨中国法学会网络与信息法学研究会2024年年会暨第二届数字法治大会会议议程
会议通知 | 四川省法学会人工智能与大数据法治研究会会员大会暨2024年年会通知
征文启事丨CCF中国计算法学研讨会暨第三届学术年会征文启事
会议议程丨网络与信息法学学科建设论坛
获奖名单|第二届“法研灯塔”司法大数据征文比赛获奖名单出炉啦!
讲座信息|王竹:数据产权的民法规制路径
会议议程 | 四川省法学会人工智能与大数据法治研究会2023年年会暨“人工智能与数据法律风险研讨会”
会议议程|11.04 中国民商法海南冬季论坛——数据法学的当下和未来
讲座信息|王竹:数据产品的民法规制路径
会议通知|四川省法学会人工智能与大数据法治研究会2023年年会暨“人工智能与数据法律风险研讨会”
时间:2023-05-11
对《生成式人工智能服务管理办法(征求意见稿)》的完善建议
王竹(四川智慧社会智能治理重点实验室主任、四川大学法学院教授)
编者按:本文以《生成式人工智能立规的几点建议》为题发表在《上海法治报》2023年5月10日B6版“法治论苑”栏目。发表时因为版面原因,“六、建议完善《管理办法》
完善建议:
GPT-4于2023年3月14日正式发布,百度紧接着于3月16日发布文心一言,标志着国内外生成式人工智能竞赛正式进入多模态时代。4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见,体现出网信领域立法一贯的及时性。四川智慧社会智能治理重点实验室智慧法治研究所先后召开4期智治社慧学术工坊(AegIsS Seminar),组织法学、计算机科学与技术、数学、计算语言学等多学科背景团队进行头脑风暴,就《管理办法》征求意见稿提出如下主要完善意见:
一、建议完善《管理办法》的法规名称与立法目的
本次征求意见的法规名称拟为《生成式人工智能服务管理办法》,起草目的是为“促进”生成式人工智能“技术”“健康发展”和“规范应用”。仔细对比会发现,征求意见稿的名称与立法目的存在不对应问题:一方面,《管理办法》规范对象属性表述不统一。征求意见稿正文中共出现16次“生成式人工智能”,其中3次作为“生成内容”的手段,1次未说明属性,1次作为“技术”,7次作为“产品”,3次作为“服务”,1次作为“产品或服务”。从第4条“产品或服务”的表述看,立法者认为“产品”与“服务”性质不同。另一方面,立法目的表述方式搭配不当。“为促进生成式人工智能健康发展和规范应用”,“促进”的对象应该是行业发展,“规范”的对象应该是技术应用,这样实现的才是“管理”的目标。
建议《管理办法》标题改为“生成式人工智能技术管理办法”或者“生成式人工智能管理办法”,这样可以将“服务”和“产品”纳入到标题的概念范围内。相应的,本条第1小句建议修改为“为促进生成式人工智能行业健康发展,规范生成式人工智能技术应用”。
二、建议完善《管理办法》上位法依据并协调用语
建议将《中华人民共和国民法典》作为征求意见稿第1条规定的上位法依据之一,参照上位法拟定的条文应当在表述上与被参照条文保持一致。就与《民法典》协调而言,征求意见稿第4条导语部分规定:“提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:”建议本条中“尊重社会公德、公序良俗”的表述改为“不得违背公序良俗”,以与《民法典》第8条“民事主体从事民事活动,不得违反法律,不得违背公序良俗”保持一致。相应的,建议本条第5项完善为:“(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权、荣誉权、隐私权、个人信息,侵犯知识产权。禁止非法获取、披露、利用个人信息、隐私、商业秘密和国家秘密。”征求意见稿第13条、第18条第1款、第19条有类似的立法协调需求。就与《网络安全法》协调而言,建议第2条第2款“研发、利用”改为“研发、运营和应用”,一方面是细化“利用”的范围,明确了生成式人工智能日常的运营、维护者属于本办法的适用范围;另一方面,将“利用”改为“应用”更加符合《网络安全法》的表述习惯。征求意见稿第4条第1项与第17条有类似的立法协调需求。
三、建议完善《管理办法》的适用范围与规范对象
征求意见稿第2条第1款是对《管理办法》适用范围的规定,建议将“面向中华人民共和国境内公众”改为“面向中华人民共和国境内和中华人民共和国公民”,即将本办法的适用范围由“属地主义”改为“属地主义+属人主义”。本办法不仅要规范面向我国境内的生成式人工智能服务,还应当最大限度地避免我国公民在境外接受不符合本办法要求的生成式人工智能服务。
征求意见稿第2条第2款是对《管理办法》适用对象“生成式人工智能”的界定。该款有如下改进空间:第一,“算法”“模型”“规则”这些概念之间存在一定重叠,且并不能完全涵盖人工智能技术,建议将上述概念统称为“人工智能技术”。第二,生成式人工智能的重点在于“创建”“新”内容,因此应当强调生成的内容为“创建”之前不存在的“新”内容,而非对网络已有内容的“搜索引擎式”的复制和推荐。建议本条第2款完善为:“本办法所称生成式人工智能,是指基于人工智能技术创建文本、图片、音频、视频、代码等新内容的技术。”
四、建议强调《管理办法》的安全可信与低碳环保
鉴于算法与框架、软件与工具、计算和数据等概念之间存在含义交叉重复,建议征求意见稿第3条规定的“算法、框架等基础技术”修改为“相关基础技术”,“软件、工具、计算和数据资源”修改为“硬件、软件和数据资源”。本条建议修改为:“国家支持生成式人工智能相关基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的硬件、软件和数据资源。”
建议本条建议增加第2款:“鼓励生成式人工智能的研究和应用使用清洁能源,主动降低计算资源的碳排放量。”一方面,鼓励生成式人工智能的研究和应用使用清洁能源符合《民法典》第9条“绿色原则”,符合我国实现碳达峰、碳中和的重大战略决策。另一方面,如果放任生成式人工智能行业盲目无序发展,将可能严重影响我国达成节能减排目标,本办法应当对该领域未来可能出现的乱象作出预防性规范。
五、建议完善《管理办法》的合法性和合规性要求
第一,完善反歧视规定。因为第4条第2项采用了“等”字的表述,歧视的类型无需列举太多,且要和征求意见稿第12条表述保持一致。“信仰”建议修改为立法表述中常用的“宗教信仰”。建议本条第2项改为:“(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,应当采取措施防止出现民族、宗教信仰、性别等歧视。”
第二,完善防止虚假信息规定,建议本条第4项修改为:“(四)在利用生成式人工智能生成内容过程中,应当采取合理必要措施防止生成式人工智能生成的内容包含虚假信息。生成内容涉及政治、军事、法律、医学和伦理等特殊领域的,应当特别提示内容应该咨询专业人士意见。”
六、建议完善《管理办法》预防依赖沉迷生成内容
征求意见稿第10条是对预防依赖沉迷生成内容的一般性规定,建议将“防范”改为“预防”,并在沉迷之后增加“于”字,修改为“提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施预防用户过分依赖或沉迷于生成内容。”参照《未成年人保护法》关于网络游戏、直播等服务提供者设置防沉迷措施的规定,建议本条增加第2款对未成年人、老年人等自控能力较弱人群的特别保护规则:“提供者应当设置未成年人、老年人等特殊人群的防沉迷系统,坚决防止针对未成年人、老年人等特殊人群的沉迷性生成式人工智能服务,切实保护未成年人、老年人等特殊人群的身心健康。”“等”特殊人群主要是指精神病人。
七、建议《管理办法》增设对代码生成的特别规范
征求意见稿仅仅在第2条第2款对生成式人工智能进行界定时提到了“代码”,缺少对代码生成的特别规范,建议在第16条后增设条文:“利用生成式人工智能技术提供生成、修复代码等服务,应当符合国家标准的强制性要求,不得以设置技术漏洞、恶意代码或者其他方式危害网络安全。”或者限缩《管理办法》对代码生成的适用,另行制定管理规范。
八、建议完善《管理办法》对举报措施的具体规定
第一,扩展举报人范围。建议将征求意见稿第18条第2款规定的“用户”改为“任何组织和个人”,调整表述为:“任何组织和个人发现生成内容不符合本办法要求时,有权向网信部门或者有关主管部门举报。”
第二,建议第18条后增设一条细化举报平台规定,建议条文分为三款:“国家网信部门应当协调工业和信息化、公安等部门建立健全生成式人工智能安全举报制度,统一设置举报平台,并公示举报电话、电子邮箱,接受社会各界对危害网络安全行为进行举报。”“负责处理举报事项的有关部门应当自受理举报之日起十五个工作日内向举报人答复处理意见。”“有关部门应当对举报人的相关信息予以保密,保护举报人的合法权益。”