SoftMax Regression

说是回归,实为分类

同样是根据一组输入,得到若干结果中最可能的一个

softmax 字面意思似乎是 “软性” 地选择最大值

SoftMax Function

softmax 函数将这个向量映射为一组概率值,并保持其之间的序关系

Likely-Hood

样本 ,对样本进行估计 ,现在想要获得一个损失函数以优化参数

首先对 进行 softmax 得到

由于 是已知样本,所以我的估计中只有一项是正确的,对一项样本 我得到一串概率 中只有一项 是有用的概率

那么我的估计是正确的概率就是对所有样本得到的概率的连乘

这样写着太麻烦,由于实际的样本 是一列列 One-Hot 向量, 中只有一项为 1,其余为 0,于是 实际上可以写为

对上述概率取负对数

同样的道理,出于 One-Hot 向量的性质 (这里对向量取 log 表示对其每一项取 log)

所以重写概率

在 softmax regression 中,其每一项定义为 loss 函数