点击右上角微信好友

朋友圈

请使用浏览器分享功能进行分享

正在阅读:用AI生成数据训练AI或导致模型崩溃
首页> 网安频道> 要闻 > 正文

用AI生成数据训练AI或导致模型崩溃

来源:科技日报2024-07-26 13:22

  科技日报北京7月25日电(记者 张梦然)《自然》24日正式发表的一篇研究论文指出了一个人工智能(AI)严重问题:用AI生成的数据集训练未来几代机器学习模型,可能会严重“污染”它们的输出,这被称为“模型崩溃”。研究显示,原始内容会在9次迭代以后,变成不相关的“胡言乱语”(演示中一个建筑文本最终变成了野兔的名字),这凸显出使用可靠数据训练AI模型的重要性。

  生成式AI工具越来越受欢迎,如大语言模型等,这类工具主要用人类生成的输入进行训练。不过,随着这些AI模型在互联网不断壮大,计算机生成内容可能会以递归循环的形式被用于训练其他AI模型或其自身。

  包括英国牛津大学在内的联合团队一直在进行相关研究,并在去年论文预印本中提出这一概念。在正式发表的论文中,他们用数学模型演示了AI可能会出现的“模型崩溃”。他们证明了一个AI会忽略训练数据中的某些输出(如不太常见的文本),导致其只用一部分数据集来自我训练。

  团队分析了AI模型会如何处理主要由AI生成的数据集。他们发现,给模型输入AI生成的数据,会减弱今后几代模型的学习能力,最终导致了“模型崩溃”。他们测试的几乎所有递归训练语言模型,都容易出现问题。比如,一个用中世纪建筑文本作为原始输入的测试,到第9代的输出已经是一串野兔的名字。

  团队指出,用前几代生成的数据集去训练AI,崩溃是一个不可避免的结局。他们认为,必须对数据进行严格过滤。与此同时,这也意味着依赖人类生成内容的AI模型,或许能训练出更高效的AI模型。

  对AI来说,“模型崩溃”就像癌症一样,甚至分早期与晚期。在早期时,被“喂”了生成数据的AI会开始失去一些原始正确数据;但在晚期,被“喂”了生成数据的AI会“口吐狂言”——给出完全不符合现实,也和底层数据一点不相关的结果,就像本文中的例子一样。更可怕的是,“模型崩溃”的AI极其固执,错误几乎难以矫正。它会持续强化,最终把错误结果认为是正确的。这一问题值得所有关注生成式AI的人们警惕,因为它等于是在“毒化”AI对真实世界的认知。

[ 责编:雷渺鑫 ]
阅读剩余全文(

相关阅读

您此时的心情

光明云投
新闻表情排行 /
  • 开心
     
    0
  • 难过
     
    0
  • 点赞
     
    0
  • 飘过
     
    0

视觉焦点

  • 青海湖畔冬日牧羊图

  • 新版《丝路花雨》舞动金城兰州

独家策划

推荐阅读
民族文化宫里珍宝千千万,但说到“镇馆之宝”,首先想到的便是1300多年前文成公主带到西藏的长鼓,许多观众慕名而来只为一睹它的“芳容”。
2025-11-28 13:02
为庆祝新疆维吾尔自治区成立70周年,“异元汽车杯”首届新疆国际摄影大赛9月28日正式启动。
2025-09-29 14:31
2025年4月10日,安徽省芜湖市无为市昆山镇三公山茶叶种植基地,千亩高山野生杜鹃在翠绿的茶园之间绚丽绽放,美轮美奂,美不胜收
2025-04-10 15:13
2025年4月1日,北京怀柔慕田峪长城内外山花盛开,美丽的春花把古长城打扮的多姿多娇,犹如春天里一幅壮美的风景画
2025-04-02 15:44
2025年4月1日,船舶航行在安徽省合肥市庐江县境内的引江济淮航道上,标志着菜子湖湿地候鸟越冬季禁航结束,菜(子湖)巢(湖)线恢复通航
2025-04-01 15:40