SoftMax Regression
说是回归,实为分类
同样是根据一组输入,得到若干结果中最可能的一个
softmax 字面意思似乎是 “软性” 地选择最大值
SoftMax Function
,softmax
函数将这个向量映射为一组概率值,并保持其之间的序关系
Likely-Hood
样本 ,对样本进行估计 ,现在想要获得一个损失函数以优化参数
首先对 进行 softmax 得到
由于 是已知样本,所以我的估计中只有一项是正确的,对一项样本 我得到一串概率 中只有一项 是有用的概率
那么我的估计是正确的概率就是对所有样本得到的概率的连乘
这样写着太麻烦,由于实际的样本 是一列列 One-Hot 向量, 中只有一项为 1,其余为 0,于是 实际上可以写为
对上述概率取负对数
同样的道理,出于 One-Hot 向量的性质 (这里对向量取 log 表示对其每一项取 log)
所以重写概率
在 softmax regression 中,其每一项定义为 loss 函数