点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
随着数字时代智能化的深入发展,如何在国家现代化治理的语境中科学建构人工智能法律制度,具有重要的现实意义。中共中央、国务院以及国家互联网信息办公室等部门和地方出台系列关于人工智能与数字治理的相关法规、政策、标准,以期促进人工智能升级应用,推动数字经济健康发展。而以ChatGPT为代表的生成式人工智能正在引发新一轮的人工智能革命。所谓生成式人工智能,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。生成式人工智能产品通过海量的数据累积和强大的计算能力,可以充分理解并记忆用户习惯,进而自动生成符合用户需求的高质量内容,具有极强的模仿力和创造力。在此背景下,应进一步厘清生成式人工智能法律规制的重点并明确监管方式,形成科学完备的法律制度,有效增强人工智能法律制度的张力,制定有针对性的规制路径,从而提升国际社会对我国全球治理思路和社会实践的认同。
第一,进一步细化、完善分类分级监管规则。随着生成式人工智能的高速发展,复杂多变的法律需求和现实样态对治理方式提出了更高的要求。分类分级监管能够帮助监管部门兼顾考量不同场景下人工智能应用风险可能存在的差异性,在坚持良法善治的基础上科学地针对各个领域实践现状进行具体展开,充分进行理论补正和规则完善,从而进一步增强人工智能法律规制中的合理性和准确性。我国在最新实施的《生成式人工智能服务管理暂行办法》中明确了对生成式人工智能服务实行分类分级监管的主要原则,但在具体监管细则以及实施方式上仍可进一步细化。通过聚焦不同类别生成式人工智能的应用特点,提出特定的监管要求,并根据行业特性在不同行业内形成一整套完备的生成式人工智能风险评估标准,推动公共数据分类分级有序开放,在特定场合适用不同的监管模式并考虑采取差异化的监管处罚措施,合理地因情施策。
第二,坚持包容审慎监管理念,重视数据的真实性和安全性。包容审慎监管自提出以来逐步成为政府新的执法监管理念,一方面要求监管部门为生成式人工智能提供充分的发展空间和容错环境,鼓励生成式人工智能在技术手段、数据资源建设、转化应用、风险防范等方面开展创新应用,另一方面也要求对生成式人工智能可能引发的安全风险予以适当防范。这不仅有利于促进创新和依法治理相结合,保障追求效率与安全之间达成和谐的动态平衡,同时也有助于破解传统监管困局。在包容审慎监管过程中,应充分重视数据安全和隐私的保护。生成式人工智能收集的数据往往具有重要的价值,不仅涉及个人隐私,还可能关系到国家重要基础信息。数据来源、处理方式的合法性以及数据的真实性应当是法律规制的重点关注对象。此外,应注意避免生成式人工智能学习虚假的数据或者存在价值偏差的数据,有效控制风险。
第三,划定底线,保护相关权利主体的知识产权。为减少侵权事件的发生,应立足于生成式人工智能的核心要素与衍生内容,有针对性地对相关法律问题予以回应。如生成式人工智能在前期对大量数据进行学习和使用时,尤其是在数据输入而未得到数据提供者授权的情况下,如何避免侵权行为的发生。在现有知识产权制度框架下,应进一步设立全面的数据知识产权保护规则并制定相应的惩罚措施,防止生成式人工智能对知识产权的侵害行为。此外,应确定生成式人工智能的衍生内容是否属于知识产权保护范畴。后续立法可以围绕衍生内容的独创性,结合人工智能的技术特征,确立其衍生产品独有的知识产权授权与确权规则。
第四,推动监管主体形成监管合力,构建系统性人工智能法律规范体系。生成式人工智能技术在各行业、各领域不断进行创新应用,其可能导致的风险会涉及多个领域,现有监管方式也主要呈现多头监管。鉴此,应当坚持以发展和安全并重的理念为指引,广泛团结协作,完善监管主体的沟通协作机制,并进一步加强人工智能治理专业委员会等机构的指导力度以及影响范围。通过形成主体层面的监管合力,合理地提升人工智能监管效率,避免监管规则的冲突以及监管资源的分配不均,促进人工智能的高效联动和协同治理,推动构建开放包容、安全稳定的监管法律制度。从现有法律规则设置而言,生成式人工智能相关的法律规定以原则性的内容为主,可以在具体标准、实施方式、责任划分等方面进一步完善,通过在立法、执法、司法层面形成稳固的价值理念,推动生成式人工智能产业健康发展。(祝戈辉)