1. 主页 > AI展台 > AI大模型

大模型Zephyr3B开源,专为手机、笔记本等移动设备设计

12月8日,著名开源生成式AI平台stability.ai在官网上,开源了一款名为StableLM Zephyr3B的大语言模型,该模型拥有30亿参数。

Zephyr3B专为手机、笔记本等移动设备设计,具有参数小、性能强、算力消耗低的特点,能够自动生成文本、总结摘要等,与70亿、130亿参数的模型相媲美,契合目前端侧AI大模型的方向。

大语言模型StableLM Zephyr3B.jpg

值得一提的是,Zephyr3B的核心架构来自Zephyr7B,并进行了精调。而Zephyr7B是基于前几天刚获35亿元巨额融资Mistral AI的Mistral-7B模型微调而成。同时,该模型使用了GPT-3.5生成了训练数据集以及GPT-4对其进行了人工智能反馈,因此可以说Zephyr3B是多家大厂模型基因的超级缝合怪。

由于Stability.ai并没有开放Zephyr3B的论文,我们只能从Zephyr7B的技术文档为大家解读一下其核心架构,主要包含监督学习优化、人工智能反馈和直觉优化指导学习三大模块。

由于该模型在训练数据集和人工智能反馈等方面使用了GPT系列模型,具有很强的ChatGPT基因。

监督学习优化(dSFT)

研究人员通过OpenAI的GPT-3.5模型生成了规模庞大的对话数据集“UltraChat”,超过147万条多轮不同主题对话示例。然后通过该数据集对模型进行监督学习优化,训练样本是对话内容和回复,以最大程度降低“交叉熵”误差。该流程类似传统的监督学习方法,将模型训练任务指定到给定数据集上。但与使用人工数据集略有不同,该方法直接使用了强大语言模型自主生成高质量的训练数据,避免了人工乱标注难题。

人工智能反馈(AIF)

为了进一步提升模型的文本生成、理解的精准度,研究人员使用了第二个数据集UltraFeedback,对4个不同的大语言模型,在不同主题下的回复进行打分评价。具体方法是将每条对话的文本提示送入到4个模型,得到4个答案,然后再由“教师模型”GPT-4进行打分(0—10分)。最高分答案为“优先答案”,随机选择另一个作为“非优先答案”进行深度优化。

直觉优化指导学习(dDPO)

通过使用前面的“UltraFeedback”收集的GPT-4对话样本及质量评价,提取高分和低分样本作为数据配对组。就是按批处理对优先和非优先样本计算两种概率,并利用损失函数测量它们的差异,通过反向传播优化模型参数。该算法以试批方式运行,在每轮中随机选取样本对,计算当前模型与基线模型在这两个样本上的概率误差。通过这种反向传播将误差回溯至参数,可实时地微调模型结构。整个优化流程非常高效,无需采样,几小时就能完成,并且不需任何人工标注。

测试数据

Stability.ai表示,Zephyr3B在MT Bench、AlpacaEval等平台进行了测试,在生成上下文相关、连贯和语言准确等文本方面的表现非常优秀。特别擅长创意、个性化文本生成,同时能根据用户输入的数据进行分析。其性能可与Falcon-4b-Instruct、WizardLM-13B-v1、Llama-2-70b-chat 和 Claude-V1等几个大参数模型相媲美。

本文由小熊AI网发布,不代表小熊AI网立场,转载联系作者并注明出处:https://www.xiaoxiong360.com/html/aimodel/2191.html