任务污染严重,AI大模型越来越笨?
学术界对于ChatGPT变笨的原因又有了新的解释。加州大学圣克鲁兹分校的一项研究指出,在训练数据截止之前的任务上,大模型的表现明显更好。
该论文重点研究了“任务污染”问题,即大模型在训练时期已经接触过很多任务示例,给人一种AI拥有零样本或少样本能力的错误印象。
另外,也有学者从另一个角度指出,大模型训练后参数冻结,人们不断提出新的任务也就是输入分布不断变化。如果模型不能不断适应这种变化,就表现成能力慢慢退化。
人们以为只提了个问题AI就能回答,其实是在训练时见过大多数常见任务。随着时间的推移,人们开始提出更多新问题,AI表现就不行了。比如对于代码问题,编程语言还在持续发展变化,迟早有一天效率会低到不可接受。这是所有不具备持续学习能力模型的命运。
任务污染有多严重?
研究团队一共评估了12种模型,从ChatGPT之前的GPT-3系列、OPT、Bloom,到最新的GPT-3.5-turbo、羊驼家族Llama、Alpaca和Vicuna等。它们都存在类似问题,也就是在训练截止之前的任务上表现明显更好。
评估任务污染非常困难,闭源模型根本不会公布训练数据,大多数开源模型也只是生命了来源,而不发布数据本身。如果研究者重新爬取互联网数据,也有可能与模型训练时相比发生了变化。
对此,团队采用4种方法来测量任务污染程度:检查训练数据、提取任务示例、成员推断(只适用于生成任务)和按时间顺序分析。前三种方法精度较高,但召回率较低。第四种方法召回率高但精度低,容易受干扰因素影响。
特别是对于GPT-3系列,目前人们假设其能力提高来自于指令微调,但研究团队认为事实并非如此。虽然在2021年之前的数据集上,davinci-002比davinci-001的性能有所提高,但在2021年之后的数据集上性能却相应下降,这表明GPT-3系列的指令微调只适用于某些早期数据集。
最后团队的结论为:由于任务污染,闭源模型可能会在零样本或少样本评估中表现的比实际好,特别是经过RLHF微调的模型。污染的程度仍不清楚,因此我们建议谨慎行事。在实验中,对于没有任务污染可能性的分类任务,大模型很少在零样本和少样本设置中表现出相对于大多数基线具有统计学意义的显著改进。
随着时间推移,观察到GPT-3系列模型在许多下游任务的零样本或少样本性能有所增加,这可能是由于任务污染造成的。即使对于开源模型,检查训练数据的任务污染也很困难。鼓励公开发布训练数据,以便检查任务污染问题。
本文由小熊AI网发布,不代表小熊AI网立场,转载联系作者并注明出处:https://www.xiaoxiong360.com/html/industry/2528.html