深度学习后图灵奖得主Bengio研究核心是什么?因果表示学习( 三 )



深度学习后图灵奖得主Bengio研究核心是什么?因果表示学习
文章图片
其中G是非线性函数 。 下图2展示了一个示例 , 其中高维观测是对因果系统状态进行查看的结果 , 然后利用神经网络对其进行处理 , 以提取在多种任务上有用的高级变量 。

深度学习后图灵奖得主Bengio研究核心是什么?因果表示学习
文章图片
为了结合结构因果建模和表示学习 , 我们应努力将SCM嵌入到更大的机器学习模型中 , 这些模型的输入和输出也许呈现高维和非结构特点 , 但其内部工作至少部分由SCM控制(可使用神经网络对其进行参数化) 。
研究者在下图3中展示了一个可视化示例 , 其中恰当因果变量的变化很稀疏(移动手指导致手指和方块位置发生变化) , 但在像素空间等其他表示中变化则很稠密(手指和方块的移动导致很多像素值发生变化) 。

深度学习后图灵奖得主Bengio研究核心是什么?因果表示学习
文章图片
研究者从因果表示学习的角度讨论了现代机器学习面临的三个问题 , 分别是解耦表示学习、可迁移机制学习以及干预式世界模型和推理学习 。
因果推理对机器学习的影响
上文所有讨论都需要一种不依赖常见i.i.d.假设的学习范式 。 研究者希望做出一种较弱的假设:应用模型的数据可能来自不同的分布 , 但涉及的因果机制(大多)相同 。
半监督学习(SSL)
假设潜在因果图为X→Y , 并且同时想要学习映射X→Y , 则这种情况的因果因式分解如下:

深度学习后图灵奖得主Bengio研究核心是什么?因果表示学习
文章图片
从SSL的角度来看 , 后续发展包括进一步的理论分析和条件式SSL 。 将SSL视为利用边际P(X)和非因果条件式P(Y|X)之间的依赖性 , 这一观点与验证SSL合理性的常见假设一致 。
此外 , SSL领域的一些理论结果使用因果图中众所周知的假设(即使这些假设没有提及因果关系):协同训练理论陈述了无标注数据的可学习性 , 并且依赖预测器基于给定标签有条件独立的假设 。 我们通常期望该预测器(仅)由给定标签引起 , 即反因果设置 。
对抗脆弱性
现在假设我们处在因果设置中 , 其中因果生成模型可因式分解为独立的组件 , 组件之一(本质上)是分类函数 。 因此 , 我们或许会期望 , 如果预测器近似具备固有可迁移性和鲁棒性的因果机制 , 则对抗样本应该更难找到 。
最近的工作支持了这种观点:对抗攻击的一种潜在防御方法通过建模因果生成方向来解决反因果分类问题 , 这种方法在视觉领域中被称为合成式分析(analysisbysynthesis) 。
鲁棒性和强泛化性
为了学习一个鲁棒的预测器 , 我们应该拥有一个环境分布的子集

深度学习后图灵奖得主Bengio研究核心是什么?因果表示学习
文章图片
, 并求解

深度学习后图灵奖得主Bengio研究核心是什么?因果表示学习
文章图片
在实践中 , 求解公式(18)需要指定一个具有干预相关集合的因果模型 。 如果观测环境集合ε与可能的环境集合Ρ_ɡ不一致 , 则我们将得到额外的估计误差 , 在最坏的情况下 , 该估计误差可能会任意大 。
预训练、数据增强与自监督
学习用于解决(18)min-max优化问题的预测模型难度较高 。 该研究将机器学习中的多个常见技术解释为近似(18)的方法 。 第一个方法是丰富训练集的分布;第二个方法通常与前一个结合使用 , 即依赖数据增强来增加数据多样性;第三个方法是依靠自监督学习P(X) 。
一个有趣的研究方向是将所有这些技术结合起来 , 即基于来自多个模拟环境的数据进行大规模训练、数据增强、自监督和鲁棒性微调 。
强化学习
相比机器学习主流研究 , 强化学习(RL)更接近因果研究 , 因为它有时能够高效地直接估计do-probabilities 。 但是 , 在离策略学习设置下 , 尤其是批(或观测)设置下 , 因果问题变得细微 。 应用于强化学习的因果学习可以分为两个方面:因果归纳和因果推理 。
强化学习设置下的因果归纳与经典因果学习设置下所面临的挑战大有不同 , 因为因果变量通常是给定的 。 但是 , 越来越多的证据表明恰当环境结构化表示的有效性 。 例如:
世界模型;泛化、鲁棒性与快速迁移;反事实;离线强化学习【深度学习后图灵奖得主Bengio研究核心是什么?因果表示学习】科学应用
当机器学习应用于自然科学领域时 , 一个基本的问题是:我们可以在多大程度上用机器学习来补充对物理系统的理解 。 一个有意思的方向是使用神经网络进行物理仿真 , 它与手工设计的模拟器相比效率要高得多 。 另一方面 , 缺乏系统的实验条件可能会在医疗等应用领域遭遇挑战 。