一、深度学习的理论支柱:逼近、优化与泛化
深度学习不仅在应用领域取得巨大成功,其背后也有一套逐渐完善的理论体系支撑。该体系主要围绕三个核心问题展开:深度神经网络能够表示哪些函数(逼近理论)、如何有效优化神经网络参数(优化理论),以及训练好的模型为何能在新数据上表现良好(泛化理论)。
1.1 逼近理论:神经网络的函数表示能力
通用逼近定理(Universal Approximation Theorem)是理解神经网络表示能力的基础。该定理指出,只要具有足够多的神经元,单隐藏层神经网络就能以任意精度逼近任何连续函数。这一定理最早由 Hornik、Stinchcombe 和 White 在 1989 年证明,适用于多种激活函数,包括 S 型函数、余弦函数和现在广泛使用的 ReLU 函数。
深度分离(Depth Separation)现象进一步解释了为什么深度网络比浅层网络更有效。对于某些复杂函数,浅层网络需要指数级增长的神经元数量才能达到相当的逼近精度,而深层网络只需多项式数量的参数即可实现。这表明深度不仅减少了参数数量,还从根本上增强了网络的表示能力。
巴伦定理(Barron’s Theorem)为逼近理论提供了重要补充,它表明存在一类函数,浅层神经网络可以高效逼近且误差与输入维度无关。这解释了为什么神经网络能够有效处理高维数据而不受维度灾难的困扰。
1.2 优化理论:神经切线核与训练动力学
深度神经网络的优化长期被认为极其困难,因为其损失函数通常是非凸的,存在大量局部极小值。神经切线核(Neural Tangent Kernel, NTK)理论为理解优化过程提供了新视角。
NTK 理论发现,当神经网络宽度趋于无穷时,参数空间中的优化轨迹变得可预测且稳定。在初始化点附近,神经网络的行为类似于线性模型,其梯度下降过程可由一个确定的核函数——NTK 来描述。这使得我们可以分析梯度下降的收敛性,并解释为什么过参数化的网络能够收敛到全局最优解。
核机制(Kernel Regime)是指宽神经网络在训练过程中保持近似线性的状态,NTK 几乎保持不变。在这种状态下,神经网络的训练可以简化为核方法的凸优化问题,从而保证了收敛性。这一发现连接了神经网络和传统核方法,为理论分析提供了有力工具。
1.3 泛化理论:从 VC 维度到隐式正则化
泛化能力是机器学习模型的核心,指模型在未见数据上的表现。VC 维度(Vapnik-Chervonenkis dimension)提供了衡量模型复杂度的经典方法,用于解释模型的泛化能力。对于 ReLU 网络,其 VC 维度与参数数量和网络深度有关,但现代深度网络通常参数过多,单纯用 VC 维度无法完全解释其泛化能力。
隐式正则化(Implicit Regularization)是指优化算法本身引入的正则化效应,无需显式添加正则化项。例如,梯度下降倾向于找到平坦的极小值,这些解通常具有更好的泛化能力。对于线性模型,梯度流会收敛到最大间隔解,类似于支持向量机的结果。在神经网络中,这种隐式偏差有助于理解为什么过参数化的模型仍然能够泛化良好。
二、持续学习:克服灾难性遗忘的挑战
持续学习(Continual Learning)旨在使模型能够像人类一样持续学习新任务而不遗忘旧知识,这是实现通用人工智能的关键步骤。
2.1 持续学习的问题与挑战
灾难性遗忘(Catastrophic Forgetting)是持续学习中的核心挑战:在学习新任务时,模型会覆盖或破坏已学到的旧任务知识。这与人类学习形成鲜明对比——人类能够累积知识而不会迅速遗忘。
持续学习面临多个约束:有限的内存和计算资源、不能频繁访问旧数据、需要保持模型稳定性同时保持一定可塑性以学习新知识。根据测试时是否提供任务标识,持续学习可分为任务增量、领域增量和类别增量三种场景。
2.2 持续学习的主要方法
正则化方法通过约束重要参数的更新来保护旧知识。例如,弹性权重巩固(EWC)计算参数对旧任务的重要性,并限制重要参数的更新幅度。
重放方法存储或生成旧任务的样本,在学习新任务时重新训练这些样本。iCaRL 方法选择每个类别的代表性样本存储,并在训练时重放;生成回放(Generative Replay)则使用生成模型生成旧任务的样本,缓解存储真实数据的压力。
架构方法为不同任务分配不同的模型参数。渐进神经网络(PNN)为每个新任务添加新的网络列,并通过横向连接利用旧知识;动态可扩展网络(DEN)则根据新任务的需求选择性扩展网络结构。
提示方法是新兴方向,尤其适用于 Transformer 等预训练模型。通过为不同任务学习特定的提示(prompt),在不改变模型参数的情况下适应新任务,如 Learn to Prompt(L2P)方法。
2.3 持续学习的生物启示
人脑具有多种机制支持持续学习:神经发生(生成新神经元)、情景重放(在睡眠中重放经历巩固记忆)、元可塑性(调节突触可塑性水平)和神经调节(通过多巴胺等化学物质调节学习速率)。这些机制为人工智能持续学习提供了丰富灵感,如将神经调节机制转化为计算模型中的学习率调节算法。
三、多任务与元学习:共享与迁移知识
3.1 多任务学习:共享表示提升泛化
多任务学习(MTL)同时学习多个相关任务,通过共享表示提高各任务的性能。其核心假设是:不同任务共享某些底层特征,联合学习可以产生更通用的表示。
硬参数共享是最常用的多任务学习方法,通过共享底层参数、任务特定输出层来实现。软参数共享则让每个任务有自己的模型,但通过正则化约束模型参数相似性。此外,任务聚类方法自动发现任务间关系,将相似任务分组共享参数。
多任务学习在自然语言处理中尤为成功,如联合学习词性标注、命名实体识别和句法分析等任务,通过共享文本表示提升各项任务性能。
3.2 元学习:学会如何学习
元学习(Meta-Learning)旨在训练模型能够快速适应新任务,只需少量样本即可学习,即“学会如何学习”。
基于度量的方法如原型网络(Prototypical Networks)学习一个嵌入空间,其中同类样本聚集在一起,通过计算查询样本与各类原型的距离进行分类。基于优化的方法如 MAML(Model-Agnostic Meta-Learning)学习一组好的初始参数,只需少量梯度步就能适应新任务。
元学习与持续学习有天然联系:元学习获得的快速适应能力可用于持续学习场景,当新任务到来时快速适应而不干扰旧知识。
四、前沿技术与挑战
4.1 逻辑推理增强:LogiGAN 框架
LogiGAN针对预训练语言模型缺乏逻辑推理能力的问题,采用生成器 - 验证器(G-V)架构模拟 " 学习 - 反思 " 过程。通过自动检测文本中的逻辑现象(如 " 因此 “、” 因为 " 等逻辑指示词),掩码后续逻辑陈述并生成对抗性训练样本。生成器尝试预测掩码逻辑句子,验证器评估生成句子的逻辑一致性,通过 KL 散度对齐引导生成器产生逻辑一致的句子。
4.2 高效图像生成:对抗扩散蒸馏
对抗扩散蒸馏(ADD)解决扩散模型实时图像生成限制,结合扩散模型高质量输出和 GAN 的快速推理优势。ADD 使用预训练扩散模型作为教师提供高质量指导,学生模型通过对抗损失和蒸馏损失学习快速生成高质量图像。推断时间裁剪等方法显示抵御后门攻击潜力。
4.3 深度强化学习中的休眠神经元现象
深度强化学习训练中,部分神经元激活值显著降低成为 " 休眠神经元 “,导致网络容量利用不足。ReDo 方法定期检测休眠神经元,重新初始化其输入权重并将输出权重设为零,重新激活这些神经元参与训练,保持网络表达能力和性能。
4.4 宪法 AI:基于原则的模型对齐
宪法 AI(Constitutional AI)旨在减少对人类反馈的依赖,训练既能提供帮助又无害的 AI 助手。通过监督学习阶段让模型基于宪法原则自我批判和修订回复,强化学习阶段使用自我生成偏好数据训练奖励模型,指导模型产生既有用又无害的响应。
4.5 扩散模型后门攻击与防御
BadDiffusion框架揭示扩散模型后门攻击风险:通过修改前向扩散过程添加特定噪声模式作为触发器,使模型在见到触发器时生成目标图像。潜在防御包括对抗神经元剪枝(ANP)和推断时间裁剪,后者通过限制像素值范围减少后门影响。
五、生成模型与强化学习前沿
5.1 生成对抗网络进展
GANs 通过生成器 - 判别器对抗学习数据分布。原始 GAN 存在梯度消失和模式崩溃问题。Wasserstein GAN(WGAN)使用 Wasserstein 距离改善训练稳定性。条件 GAN和StyleGAN引入标签控制和风格基变换,实现更可控高质量生成。
5.2 扩散模型原理与应用
扩散模型是概率生成模型,通过前向过程逐步添加噪声将数据变为标准正态分布,反向过程学习去噪生成新样本。这种渐进生成方式能产生高质量、多样化输出,已在图像生成、音频合成等领域取得显著成果。
5.3 深度强化学习算法演进
表格 RL适用于小状态动作空间,分为基于模型和无模型方法。拟合 Q 学习和DQN将离散表格替换为函数近似,使用经验回放和目标网络稳定训练。策略梯度方法直接学习随机策略,REINFORCE 算法基于蒙特卡洛更新,演员 - 评论家方法结合值函数和策略更新。
离线 RL无需环境交互直接从数据学习策略,适用于安全关键场景。最近研究将离线 RL 构建为序列学习问题,使用决策 Transformer 等模型根据未来回报预测动作。
六、可信深度学习与对抗学习
6.1 可信深度学习四大支柱
鲁棒性与可靠性确保模型在不同条件下一致性能,关注域不匹配、分布偏移和对抗攻击。可解释性通过 XAI 和因果推理提供决策透明性。公平性与伦理防止偏见和不公平待遇。隐私与安全保护数据免受泄露和攻击。
6.2 对抗攻击与防御
白盒、灰盒和黑盒攻击对应不同 adversary 知识水平。逃避攻击操纵测试数据导致误分类。投毒攻击操纵训练数据最大化分类错误。后门攻击针对特定数据点导致误分类。
防御措施包括训练数据消毒、鲁棒训练方法、认证 ML 鲁棒性和对抗训练。针对提示注入,现代防御依赖应用提示中的指令和通过微调实现安全对齐。