大语言模型(LLMs)的爆发式增长引领了人工智能领域的范式转移,取得了巨大的工程成功。然而,一个关键的悖论依然存在:尽管 LLMs 在实践中表现卓越,但其理论研究仍处于起步阶段,导致这些系统在很大程度上被视为难以捉摸的「黑盒」。

为了打破这一僵局,中国人民大学的研究者们采用了一种统一的基于生命周期的分类法,将 LLM 理论研究整合为六个阶段:数据准备、模型准备、训练、对齐、推理和评估。

本文系统综述了驱动 LLM 性能的底层理论与机制,深入分析了数据混合的数学依据、不同架构的表示极限以及对齐算法的优化动力学,并指出了合成数据自我提升、安全保证数学边界等前沿挑战。本综述旨在为 LLM 发展从工程启发式方法向严谨科学学科的转型提供结构化路线图。



引言

近年来,ChatGPT、DeepSeek、Llama、Claude 等模型的涌现标志着 AI 领域的深刻变革。随着系统规模的扩大,LLMs 展现出类似人类推理的行为,正改变着人类与信息交互的方式。然而,正如核物理的发展经历了从爱因斯坦的质能方程到原子弹爆炸的 40 年跨度,AI 领域的理论与应用同步也存在显著滞后。

尽管工程上取得了巨大成功,LLM 的理论理解仍面临两大挑战:一是规模带来的前所未有的数学复杂度;二是模型展现出的诸多「涌现」现象(如幻觉、涌现能力、Scaling Laws 等)难以在统一框架下解释。

为了解决研究碎片化的问题,来自中国人民大学高瓴人工智能学院的研究团队发布了最新综述论文 《Beyond the Black Box: Theory and Mechanism of Large Language Models》。本文不仅是一份文献索引,更是一份试图将 LLM 研究从 「工程启发式」推向「严谨科学」的路线图。

本综述提出了涵盖六大阶段的生命周期路线图。



图表 1: 大语言模型理论与机制路线图。

LLM 理论与机制的六大阶段

数据准备阶段 (Data Preparation):探讨如何保证更好的数据利用率,并量化数据特征对模型最终能力的影响,分析数据混合策略 (Data Mixture)、去重与过滤机制以及记忆 (Memorization) 与模型能力之间的关系。

模型准备阶段 (Model Preparation):从理论上评估架构能力,理解 Transformer 结构的表示能力极限、优化景观(如「河谷」假设)以及从展开优化视角设计新架构。

训练阶段 (Training):研究简单的学习目标如何锻造出复杂的涌现能力,分析 Scaling Laws 的本质、预训练的获益机制以及参数高效微调(PEFT,如 LoRA)的机制。

对齐阶段 (Alignment):探讨鲁棒对齐是否在数学上可实现,分析 RLHF(的动力学,研究「超级对齐」(Superalignment)与「弱到强泛化」 (Weak-to-Strong Generalization)。

推理阶段 (Inference):解密冻结权重的模型如何在测试时模拟学习与算法执行,分析提示工程 (Prompt Engineering)、上下文学习 (In-Context Learning) 的机制以及推理时扩展 (Inference-Time Scaling) 带来的推理能力提升。

评估阶段 (Evaluation):从理论上定义与衡量复杂的、主观的人类价值观,探讨基准测试的有效性、LLM-as-a-Judge 的可靠性以及安全性与透明度的形式化保证。

各个阶段代表性的研究内容如下所述。

1 数据准备阶段:智能的基础



图表 2: 数据准备阶段的理论概览。

数据准备不仅仅是工程上的设计,而是决定模型能力的基石。研究者们从三个维度剖析了数据的理论机制:

此外,这一阶段也存在着重要的前沿开放问题:

2 模型准备阶段:架构的表示极限



图表 3: 模型准备阶段的理论概览。

选择何种模型架构不仅关乎效率,更决定了信息的表示上限。研究者们通过以下视角探讨了架构的本质:

除此之外,研究者们也在关注模型架构的演进,并从理论视角对新架构进行设计与分析:

3 训练阶段:模型能力的锻造炉



图表 4: 训练阶段的理论概览。

训练阶段将静态架构转化为具备智能的实体。研究者们对预训练和微调的机制进行了深入解构:

此外,这一阶段也存在着优化层面的前沿探索:

4 对齐阶段:安全与价值的数学边界



图表 5: 对齐阶段的理论概览。

对齐不仅是指令遵循,更是人类价值观的注入。研究者们从安全性与动力学视角进行了审视:

此外,对齐阶段还面临着深层次的开放挑战:

5 推理阶段:解密静态模型的前向过程



图表 6: 推理阶段的理论概览。

推理是释放模型潜力的关键环节。研究者们解密了大模型推理中的「思维」过程:

此外,推理阶段也暴露了一些特殊的理论现象:

6 评估阶段:从基准测试到形式化保证



图表 7: 评估阶段的理论概览。

评估是大模型进步的标准,但当前的评估手段正面临严峻挑战:

此外,评估阶段也催生了关于模型内部表示的深刻讨论:

结语:迈向 AGI 的未来

尽管我们已经迈出了从经验迈向科学的第一步,但随着 LLM 的不断发展,更多的前沿理论问题依然亟待解决。正如爱因斯坦所言:「科学的伟大目标是用最少数量的假设或公理推导出最大数量的经验事实。」我们希望为社区提供一份结构化的 LLM 理论研究路线图,共同揭开黑盒背后的真理。

作者介绍

刘勇,中国人民大学,长聘副教授,博士生导师,国家级高层次青年人才。长期从事机器学习基础理论研究,共发表论文 100 余篇,其中以第一作者 / 通讯作者发表顶级期刊和会议论文近 50 篇,涵盖机器学习领域顶级期刊 JMLR、IEEE TPAMI、Artificial Intelligence 和顶级会议 ICML、NeurIPS 等。获中国人民大学「杰出学者」、中国科学院「青年创新促进会」成员、中国科学院信息工程研究所「引进优青」等称号。主持国家自然科学面上 / 基金青年、北京市面上项目、中科院基础前沿科学研究计划、腾讯犀牛鸟基金、CCF - 华为胡杨林基金等项目。

甘泽宇,中国人民大学高瓴人工智能学院博士研究生,本科及硕士研究生毕业于中国人民大学信息学院。当前主要研究方向包括大模型机理分析。