这篇文章,其实解释了怎么从逻辑回归用到的统计模型,过渡到多分类模型Softmax函数。
其实道理很简单。
回想逻辑回归的定义。
$$P(Y=1|X)=\frac{\exp(X\beta)}{1+\exp(X\beta)}$$
所以,
$$P(Y=0|X)=1-P(Y=1|X)=1-\frac{\exp(X\beta)}{1+\exp(X\beta)}=\frac{1}{1+\exp(X\beta)}$$
形象理解为
exp (Xβ)和1分别为P(Y=1|X)和P(Y=0|X)在公式中的权重。
因此推广, 如果Y = 1, 2, 3, ..., j, ..., n
那么有特定的分类。
$$P(Y=j|X)=\frac{\exp(X \beta^{j})}{\sum_{j=1}^n{\exp(X \beta^{j})}}$$
这就是Softmax函数的思想。 R中有包,softmaxreg.pdf。
- Unsupervised Feature Learning and Deep Learning Tutorial 解释得很好。 Softmax regression (or multinomial logistic regression) is a generalization of logistic regression to the case where we want to handle multiple classes.