简介#
Adam是一种基于自适应学习率的梯度下降法,结合了:
Adam是一种基于自适应学习率的梯度下降法,结合了:
若给定一条Lipschitz曲线$\mu:[0,1]\rightarrow \mathcal{W}_p(\Omega)$,将满足以下条件的任意向量场$v:[0,1]\times \Omega\rightarrow \mathbb{R}^d$定义为向量场:
Chen et al.(2018)提出使用神经网络对向量场$v_t$进行建模,即重参数化为$v_t(x;\theta)$,其中$\theta\in \mathbb{R}^p$是可学习的参数。连续归一化流模型CNFs即得到了流$\phi_t$的深度参数化模型。
指一个映射把测度从一个空间“推”到另一个空间。