近期,随着ChatGPT的爆火,掀起了新一轮生成式人工智能(AIGC)的热潮,也引发了社会各界对于该领域规范发展与治理问题的广泛关注。4月11日,为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》(下称《征求意见稿》)。《征求意见稿》明确提出,提供AIGC产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,并明确了AIGC服务的提供者需要承担的各项义务和责任。
《征求意见稿》的发布意味着,我国第一时间对AIGC技术创新应用及相关产品开发有针对性地纳入法治化治理架构,树牢“安全是发展的前提”这一底线思维,明确为新技术、新产业、新业态的发展指明合规发展的主线,但与此同时,其中还存在可进一步讨论之处,如何更好地设计规则,以统筹安全与发展的关系尤为重要,在夯实安全发展的基础之上,给予创新发展以可容、可信、可控的制度环境,以高质量的制度型开放为我国人工智能技术和产业的弯道超车,提供科学有力、坚实坚定的制度支撑,释放创新是发展第一动力的明确信号。基于此,就《征求意见稿》相关条款的理解和建议,敬陈管见。
第一,《征求意见稿》第六条规定的安全评估,算法备案和变更、注销备案手续等事前审查规定是有意义且有必要的,但是需要注意事前审查的方式方法,避免不合理地增加企业的负担。
任何技术都是一把双刃剑。AIGC产品作为高度智慧化的人工智能形态,带给人类社会的便捷与风险同在,应勇敢审慎地应对接受新科技浪潮的洗礼。《征求意见稿》增加事前审查,不仅可以提升利用AIGC产品向公众提供服务的合法性,增加其安全、可靠、可解释、可问责等可信性,还有助于更好地实现AI产品和技术适用的包容性,更好地预防风险,保障安全,及时发现其运作程序、服务内容所存在的问题,从而提高AIGC产品向公众提供服务的可接受性。
建议进一步明确事前审查的范围以及方式方法。由于事前审查会在一定程度上增加企业的合规成本,若事前审查范围设置不当,可能会抑制AIGC产品的研发与训练效能,客观上会导致AIGC发展的降速。因此,需注意事前审查的方式方法可能对企业经营产生的影响,譬如企业未经审查之前,是否能够发布相关产品,若不能,事前审查所需要的时间是否会不当地阻碍企业的正常经营行为等。
第二,《征求意见稿》第五条针对责任主体方面进行了细化规定,AIGC产品提供者承担该产品生成内容生产者的责任,该规定是对人工智能追责体系的补充和完善,但也需考虑到提供者对人工智能产品控制力度的有限性,否则可能会导致提供者责任的承担范围会被不合理地放大,建议进一步明确提供者的免责事由。
AIGC产品提供者承担该产品生成内容生产者的责任,这里实际上需要关注的重点在于对生成内容生产者的认定。如果AIGC产品提供者是生成内容的生产者,这里的生产者即应对生成内容的过程、具体数据信息的真实性、算法使用的适当性等整个生成过程负责,那么当然需要对其承担责任。该规定是对AIGC产品提供者通常是平台主体应该尽到高度注意义务的规定,在一定程度上讲,也只有课以AIGC产品提供者相应的责任义务,才能更好对生成内容的合法合规做出要求。
建议参照“安全港”制度合理设置平台承担责任的范围,明确提供者免责事由。如果平台尽到相应注意义务,在责任的承担上,鉴于其对创新发展的贡献,不宜施加其严格责任,否则不利于技术的开发和未来商用。另外,关于运营公司是否需要承担相应的补充责任,应综合考虑侵权范围、损害程度以及平台避免损失扩大的能力。
第三,《征求意见稿》第十七条规定,提供者应当根据要求提供可以影响用户信任、选择的必要信息。该规定实际上是对AIGC算法的可解释性提出了新的要求,使隐私权、个人信息的保护不再仅局限于被动的事后救济,保护链条前移,更加积极有效地规范AI训练过程,有助于增强用户信任,使AIGC产品更好发展。
建议进一步细化对提供者公开信息的范围和限度。对可解释的要求不能过于苛刻或过度放大,应当进一步规定对信息公开的程度和限度,避免提出不合理要求使AIGC算法的关键信息被迫公开,导致企业的技术机密泄露,对企业创新发展产生不可挽回的损失。
第四,《征求意见稿》第十五条规定,对发现和被举报生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。该规定针对AIGC的关键问题,对症下药,丰富和完善了对AIGC违规的处理方式。
建议优化完善验证整改优化的方式方法。整改优化的结果验证应落实于技术实践,在尊重技术实践及规律的基础上,辅之以监管保障,鼓励和支持平台探索创新并优化技术实现路径。为此,在设定技术运用的基本门槛之上,落实于实践试用,加之定期和不定期的监测,保证其整改优化结果的安全性与可信度。在优化整改后,可通过人工测试模拟运行、“监管沙盒”以及设置监管过渡期等方式,检验整改优化后的内容生成是否仍存在不符合规定的生成内容。
第五,《征求意见稿》第四条规定利用生成式AI生成的内容应该真实准确。该规定主要针对目前生成式AI无法保证生成信息的真实性问题,目前生成式AI并不会对生成内容的正确性进行验证,这可能会导致一些缺乏专业知识的人误将生成内容作为正确答案。不过,目前的生成式AI是通过强化学习和搜索增强等方式,提升了生成内容的逻辑性和可读性,但并不能像人一样去辨别内容的真实性。
若将生成式AI生成的内容应该真实准确作为提供者的义务,目前AI难以自行完成,这意味着,国内的生成式AI提供者必须通过人工审核的方式达成义务。但是,这在很大程度上会影响生成式AI的运行和生成内容的效率,极大降低消费者用户的体验,而且也会极大增加企业的负担,花费大量的人力和技术资源用于审核信息。
生成式AI目前仍主要作为人类工作的辅助工具,用户仍可以通过指令的方式实现对生成内容的控制,而且在多数场景中,内容生成多为私人使用,生成后并不会自动向公众公开和传播,因此,对于生成式AI的义务规定,仍需要区分使用场景。
从用户需求和服务体验来看,用户对于此类工具的使用有隐私和保密方面的需求,人工审查的方式也不利于满足用户对于隐私保护的需求,实际上也对生成式AI的功能产生影响。且从事实层面来看,赋予主体审查义务,必须要考虑该主体对于审查的可控性和技术实现的可能性,而在现实中,用户对生成内容有直接控制的能力,提供者能够通过完善算法的方式提升信息生成的准确率,但无法100%保证真实准确。
建议将该条款调整为一种鼓励式、提倡式的条款,仅对适用于特殊场景的高风险生成式AI应用施加真实性义务,譬如,有些平台将生成式AI内置在平台之中,此时生成内容会直接进行公开传播,在这种场景下,存在虚假信息传播的风险,且平台拥有对信息传播的控制力。2022年9月通过的欧盟《人工智能民事责任指令》规定只有高险的AI应才承担严格的责任。
总体来讲,对仍存在较大发展空间且技术仍待发展成熟的领域,立法仍需给予一定的包容空间,不宜超出提供者的能力范围设置强制性义务。以国外领先的ChatGPT为例,其目前也暂时无法确保生成内容的真实性,若将此作为生成式AI提供者的义务,无形之间实际上提高了进入该市场的门槛,不利于我国生成式AI产业发展,也会对我国获取该领域的国际竞争新优势造成阻碍。