大模型可解释性你能理得清吗?综述已来,一文解你疑惑( 二 )

2. 基于注意力的解释:注意力通常被作为一种关注输入中最相关部分的途径,因此注意力可能学习到可以用于解释预测的相关性信息 。常见的注意力相关的解释方法包括:

  • 注意力可视化技术,直观地观察注意力分数在不同尺度上的变化;
  • 基于函数的解释,如输出对注意力的偏微分 。然而,学术界对于将注意力作为一个研究角度依然充满争议 。
3. 基于样本的解释从个例的角度对模型进行探测和解释,主要分为:对抗样本和反事实样本 。
  • 对抗样本是针对模型对微小变动非常敏感的特性而生成的数据,自然语言处理中通常通过修改文本得到,人类难以区别的文本变换通常会导致模型产生不同的预测 。
  • 反事实样本则是通过将文本进行如否定的变形,通常也是对模型因果推断能力的检测 。
4. 自然语言解释使用原始文本和人工标记的解释进行模型训练,使得模型可以生成自然语言解释模型的决策过程 。
全局解释
全局解释旨在从模型构成的层面包括如神经元,隐藏层和更大的组块,为大模型的工作机制提供更高阶的解释 。主要探究在不同网络构成部分学习到的语义知识 。
  • 基于探针的解释 探针解释技术主要基于分类器进行探测,通过在预训练模型或者微调模型上训练一个浅层分类器,然后在一个 holdout 数据集上进行评估,使得分类器能够识别语言特征或推理能力 。
  • 神经元激活 传统神经元激活分析只考虑一部分重要的神经元,再学习神经元与语义特性之间的关系 。近来 , GPT-4 也被用于解释神经元,不同于选取部分神经元进行解释,GPT-4 可以用于解释所有的神经元 。
  • 基于概念的解释 将输入先映射到一组概念中,再通过测量概念对预测的重要性来对模型进行解释 。
基于 prompting 范式的模型解释
基于 prompting 范式的模型解释,需要对基础模型和助手模型分别解释以区别两种模型的能力,并探究模型学习的路径 。其探究的问题主要包括:为模型提供解释对 few-shot learning 的益处;理解 few-shot learning 和思维链能力的来源 。
基础模型解释
  • 解释对模型学习的好处 探究在 few-shot learning 的情况下解释是否对模型学习有帮助 。
  • 情境学习 探究情境学习在大模型中的作用机制,以及区分情境学习在大模型中和中等模型中的区别 。
  • 思维链 prompting 探究思维链 prompting 提高模型的表现的原因 。
助手模型解释
  • Fine-tuning 的角色 助手模型通常先经过预训练获得通用语义知识,在通过监督学习和强化学习获取领域内知识 。而助手模型的知识主要来源于哪个阶段依然有待研究 。
  • 幻觉与不确定性 大模型预测的准确性和可信度依然是目前研究的重要课题 。尽管大模型的推理能力强大,但其结果常常出现错误信息和幻觉 。这种预测的不确定性为其广泛应用带来了巨大的挑战 。
模型解释的评估
模型解释的评估指标包含合理性 (plausibility),忠实度 (faithfulness),稳定性 (stability),鲁棒性 (robustness) 等 。论文主要讲述了两个被广泛关注的围度:1)对人类的合理性;2)对模型内在逻辑的忠实度 。
对传统 fine-tuning 模型解释的评估主要集中在局部解释上 。合理性通常需要将模型解释与人工标注的解释按照设计的标准进行测量评估 。而忠实性更注重量化指标的表现 , 由于不同的指标关注模型或数据的方面不同,对于忠实性的度量依然缺乏统一的标准 。基于 prompting 模型解释的评估则有待进一步的研究 。
未来研究挑战
1. 缺乏有效的正确解释 。其挑战来源于两个方面:1)缺乏设计有效解释的标准;2)有效解释的缺乏导致对解释的评估同样缺乏支撑 。
2. 涌现现象的根源未知 。对大模型涌现能力的探究可以分别从模型和数据的角度进行 , 从模型的角度 , 1)引起涌现现象的模型结构;2)具备跨语言任务超强表现的最小模型尺度和复杂度 。从数据的角度,1)决定特定预测的数据子集;2)涌现能力与模型训练和数据污染的关系;3)训练数据的质量和数量对预训练和微调各自的影响 。
3. Fine-tuning 范式与 prompting 范式的区别 。两者在 in-distribution 和 out-of-distribution 的不同表现意味着不同的推理方式 。1)在数据同分布(in-distribution)之下,其推理范式的不同之处;2)在数据不同分布的情况下 , 模型鲁棒性的差异根源 。


推荐阅读