中国人工智能(AI)企业深度求索(DeepSeek)最新发表关于旗下大语言模型DeepSeek-R1的论文,登上国际顶级科学学术期刊《自然》(Nature)17日出版的最新一期封面。 《自然》称该研究是第一个通过同行评审的大语言模型相关研究,DeepSeek在论文中表明,其成功并非建立在竞争对手成果之上。
强调成功非建立于对手成果之上
这篇题为“DeepSeek-R1透过强化学习激励大型语言模型推理”的论文1月已和DeepSeek-R1一同向全球公开,讲述DeepSeek的研究者如何通过“强化学习”(Reinforcement Learning)提升大型语言模型的推理能力。
DeepSeek团队2月将论文提交至《自然》,历经5个月审查获期刊接收,参与评审的8名外部专家提出过百条意见,审稿文件篇幅接近论文本身的3倍。 DeepSeek团队在回应同行评审意见时,增加对技术细节的说明,包括模型训练的数据类型及其安全性。 DeepSeek在9月正式发布的版本中增加许多内容。 在论文的补充资料部分,DeepSeek强调训练数据源自互联网公开资料,没有故意加入OpenAI生成的合成数据。 内地媒体报道时称“DeepSeek首次回应蒸馏OpenAI质疑”。
《自然》发表评论文章鼓励更多AI企业公开相关研究。 俄亥俄州立大学计算机与工程系副教授Huan Sun表示,严格的同行评审流程有助于验证模型的有效性和实用性。