blog details

2024年10月21日

24

419

英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快

英伟达最新推出的nGPT为AI解决方案带来了巨大进步,其AI训练速度大幅提升,达到了传统方法的20倍。新架构基于超球面进行表示学习,不仅加快了训练速度,还保持了原有的精度。随着文本长度的增加,nGPT的加速效果愈加明显,这项进步为AI定制开发注入了强心剂,推动大型语言模型开发接近AGI的终极目标。

nGPT团队通过创新的训练理念使得所有向量归一化为单位范数,企业AI开发者因此可以在时间与资源的使用上大幅节省。在超球面表面,token移动时,位移由MLP和注意力模块定义,达到相同精度所需的训练步骤减少4-20倍,依赖于序列长度的不同。这无疑为AI企业解决方案中的开发人员提供了高效的AI系统开发环境。

高效的AI系统开发环境

为了增强模型的训练稳定性和推理成本问题,nGPT实验表明,归一化技术对提升Transformer性能至关重要,比如应用LayerNorm和RMSNorm。研究甚至发现利用权重衰减技术可以控制权重范数,进一步提升模型性能。随着更多研究应用于旋转而非仅仅向量范数,AI私有云部署的研究人员能够提高训练稳定性和嵌入空间的可分离性,创造出了更具竞争力的模型。

为了改进其训练稳定性、推理成本、上下文长度、鲁棒性等方面,AI科学家已进行了大量的修改尝试。其中,最突出的发现是,归一化技术对于Transformer性能改善起着重要作用。

“新智元”

提高训练稳定性

nGPT架构也统一了Transformer领域的多种观察和发现,通过在嵌入过程中实施归一化,提升了模型预测token的精确度。随着输入序列的前序tokens预测后续token,模型训练过程中引入了新的嵌入矩阵Einput和Eoutput以增强预测准确性。这种改进为使用Langchain框架的AI案例提供了提高训练效率的有效方法。

通过因果掩码技术,nGPT智能体确保模型在预测token时不会泄露后续词的信息,进而提高了训练的效率与准确性。这为ChatGPT开发提供了更多的改进方向,并加速推动ChatGPT在企业中的应用的拓展,展现出英伟达在AI技术上的持续领导力。

如有侵权,请联系删除。

Related Articles