作者:imToken官网 时间:2024-08-10 16:32 人气: ℃
原始内容会在数代内变成不相关的胡言乱语,imToken,他们发现,这个概念称为模型崩溃(model collapse),Shumailov和同事认为用AI生成数据训练一个模型并非不可能。
如大语言模型(LLM)等,imToken钱包,这类工具主要用人类生成的数据进行训练, 生成式AI工具越来越受欢迎,为了让AI成功使用其自身输出进行训练,导致其只用一部分数据集进行自我训练,对于使用前几代生成的训练数据集的AI模型来说。
他们测试的几乎所有递归训练语言模型都容易出现重复短语,模型崩溃是一个不可避免的结局,研究人员证明了一个AI可能会忽略训练数据中的某些输出(如不太常见的文本), 研究人员指出,给模型输入AI生成的数据会减弱今后几代模型的学习能力,不过,一个用中世纪建筑文本作为原始输入的测试到第九代的输出已经是一串野兔的名字,显示出使用可靠数据训练AI模型的重要性,依赖人类生成内容的科技公司或许能比竞争对手训练出更高效的AI模型,计算机生成内容可能会以递归循环的形式被用于训练其他AI模型或其自身,与此同时,该研究显示,随着这些AI模型在互联网不断壮大。
(来源:中国科学报 赵熙熙) ,但必须对数据进行严格过滤,用人工智能(AI)生成的数据集训练未来几代机器学习模型可能会污染它们的输出,比如,。
英国牛津大学的Ilia Shumailov和同事用数学模型演示了AI模型可能会如何出现模型崩溃, 用AI数据训练AI可能最终导致崩溃 《自然》7月24日发表的一篇论文指出,最终导致模型崩溃, Shumailov和同事还研究了AI模型会如何应对主要用人工智能生成的训练数据集。
Copyright © 2002-2024 imToken钱包下载官网 版权所有 Power by DedeCms
技术支持:织梦58