点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
2023年全国两会期间,就大语言模型技术发展所引发的新安全隐患,全国政协委员、360集团创始人周鸿祎坦言,ChatGPT的安全问题,已经从一个技术问题变成了社会伦理问题,甚至成了一个不可预知的问题。他认为,在发展的同时要研究安全问题,要把不安全的可能性想到前面。
周鸿祎介绍,从传统而言,ChatGPT是一个软件系统,是用数据训练的,所以,对它的数据污染或软件系统内部存在的漏洞,是每个人工智能系统都面临的传统数字化安全问题。如今,ChatGPT作为一个工具,掌握了大量编程知识,以及关于系统漏洞和网络安全的知识,有可能成为网络黑客作恶的有力工具。已有一些黑客演示了利用ChatGPT写钓鱼邮件、写攻击代码,可谓降低了网络攻击的成本和难度。而反过来看,借助GPT大模型对网络安全大数据进行自动化的分析、处理,形成对攻击的自动侦测、发现,或建立知识库,此类安全防护手段也在探索之中,ChatGPT或也可扮演正义助手的角色。
“网络强国·百人谈”更多内容欢迎扫码关注专栏
监制:张宁
策划:李政葳
后期:刘昊
撰文:孔繁鑫
设计:王灿
光明网要闻采访部出品