几种PLDA模型探究
# mixPLDA
# Neural PLDA
DCF定义【具体查看《NPLDA: A Deep Neural PLDA Model for Speaker Verification》】:
$$C_{\text { Norm }}(\beta, \theta)=P_{\text {Miss }}(\theta)+\beta P_{F A}(\theta)$$
其中,$\beta=\frac{C_{F A}\left(1-P_{\text {target }}\right)}{C_{\text {Miss }} P_{\text {target }}}$,$P_{\text {target }}$为先验概率,$P_{\text {Miss }}$及$P_{F A}$为错误拒绝和错误接受率
$$P_{M i s s}(\theta)=\frac{\sum_{i=1}^{N} t_{i} \mathbb{1}\left(s_{i}<\theta\right)}{\sum_{i=1}^{N} t_{i}}$$
$$P_{F A}(\theta)=\frac{\sum_{i=1}^{N}\left(1-t_{i}\right) \mathbb{1}\left(s_{i} \geq \theta\right)}{\sum_{i=1}^{N}\left(1-t_{i}\right)}$$
其中,1(·)为指示函数。现在的DCF函数是不能作为损失函数的,因为不可微分,因此提出近似估计函数,将阶跃函数改为Sigmoid函数:
$$P_{M i s s}^{(\mathrm{soft})}(\theta)=\frac{\sum_{i=1}^{N} t_{i}\left[1-\Sigma\left(\alpha\left(s_{i}-\theta\right)\right)\right]}{\sum_{i=1}^{N} t_{i}}$$
$$P_{F A}^{(\text {soft })}(\theta)=\frac{\sum_{i=1}^{N}\left(1-t_{i}\right) \Sigma\left(\alpha\left(s_{i}-\theta\right)\right)}{\sum_{i=1}^{N}\left(1-t_{i}\right)}$$