点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
【光明论坛】
“加快发展数字经济,促进数字经济和实体经济深度融合”“构建新一代信息技术、人工智能、生物技术、新能源、新材料、高端装备、绿色环保等一批新的增长引擎”,党的二十大报告的重要部署,为以人工智能等新兴技术驱动数字经济发展提供了重要遵循。作为人工智能领域的创新应用,深度合成近年来风头正劲,AI语音助手、虚拟人、数字人、AR购物、影像修复等在文艺、传媒、医疗、社交等多个领域造福着社会,成为促进数字经济“虚实融合”的关键性技术。
不过,正如很多科技突破都带来了意想不到的“副产品”,深度合成在展露出可观经济价值的同时,也暴露出破坏性“潜力”,通过深度合成伪造的视频、音频进行诬陷、诽谤、诈骗、勒索等违法行为近年来层出不穷。尤其在互联网经济领域,深度合成技术能够生成真伪难辨的虚假信息,带来身份认证、信息存储等环节的技术难题,导致数字经济发展面临新的安全隐患。要求加强监管的呼声近年来日渐高涨。
为促进深度合成技术向上向善发展,世界各国纷纷出台法律法规,对深度合成技术进行规约。在《网络信息内容生态治理规定》《网络音视频信息服务管理规定》等规章的基础上,近日,国家网信办等三部门联合发布《互联网信息服务深度合成管理规定》,并于今年1月10日起正式实施,其中明确了深度合成内容的用途、标记、使用范围以及滥用处罚,这意味着深度合成将迎来规范化发展的关键期。为新兴技术划定适当的使用框架是一项“技术活”,容易陷入一管就死、一放就乱的困局。如何推动智能技术向善发展,最大限度地趋利避害,还需从几个方向持续发力——
促进深度合成技术向善发展,需完善规则,强化技术风险防控的法治保障。应当围绕国家信息安全和数字经济安全、社会治理以及保护公民合法权益,对深度合成服务划定合理开发使用的“绿线”和禁止性的“红线”,建立分级分类制度。一方面,加大深度合成服务应用程序推广前的审核力度,尤其是高风险产品和服务,确保技术应用的服务形式和服务范围符合国家有关规定。另一方面,要明确互联网平台尤其是社交媒体的内容审核义务,推动其建立虚假消息筛查机制,禁止上传可能危害国家安全或造成负面社会影响的深度合成制品。此外,还要充分赋予用户知情权和选择权,通过用户“投票”倒逼行业各类不规范行为的整治。
促进深度合成技术向善发展,需构建体系,实现技术应用安全的常态化监管。在以人工智能新兴技术为主的算法服务安全应用监管中,普遍存在各主体之间权责不明确、数据信息传递过程不可控和缺乏社会监督等问题,亟须明确责任主体,贯彻常态化信息监管措施。首先,要确定深度合成服务提供者和使用者的主体责任,厘清界限,激活市场主动规约的积极性,使信息内容的生产源头公开透明、权责分配公正公平。其次,要对深度合成内容进行合成前、合成后、发布后和传播后的全流程监管,追踪合成内容的真实性,控制信息传递的风险。再次,要完善深度合成技术的应用体系,引入理性中立的第三方专业机构,完善行业标准,推动行业自律。最后,还应畅通用户投诉、举报渠道,确保以主流价值观为引领,强化信息内容的安全规范。
促进深度合成技术向善发展,还需探索机制,提升技术风险治理的整体水平。新兴技术的敏捷、精准治理,需要多方合力、多措并举,构建多方协同治理模式。对于政府部门,要推动从传统管理向“包容审慎”治理转变,倡导有所为有所不为,给予新技术必要的发展时间与试错空间,以更为灵活的治理方式适应数字经济的发展特点。对于从业人员,要加强科技伦理教育和法律法规培训,建立系统性的科技伦理人才培养体系,鼓励开展深度合成与深度检测的技术对抗演练,以技术之道还治技术之险,从源头防范深度合成的安全应用风险。对于公众,要加强新兴技术科普教育特别是对特定群体数字鸿沟的弥合,提升技术应用在公众中的透明度,增强公众对合成媒体防伪的警惕度和辨识能力。在全球经济复苏的当下,相信深度合成等新兴人工智能技术必将迈着更加稳健的步伐迎接一个全面数字化的世界。
(作者:马丽霞,系中国科学院大学经济与管理学院高级工程师;汪寿阳,系中国科学院预测科学研究中心主任)