ロジスティック回帰
ロジスティック回帰モデルで、陽性
y=1
である確率は次のように表されます:
P(y=1∣z)=σ(z)=1+e−z1反転した、すなわち陰性
y=0
である確率は
P(y=0∣z)=1−P(y=1∣z)=1−1+e−z1=1+e−ze−zです。
ここで、線形予測子
z
は入力特徴ベクトル
x
と重みベクトル
w
の内積に定数バイアスを加算したものです。
z=wTx+bソフトマックス関数
ソフトマックス関数は次の形で与えられ、多クラス分類問題に対して各クラスの確率を出します:
P(y=i∣z)=∑k=0K−1ezkeziここで、
K
はクラスの総数であり、
zi
はクラス
i
の線形予測子
zi=Wi+1Tx+bi+1です。
二値分類
K=2
の場合、クラスは
0
と
1
の 2 つしかありません。したがって、ソフトマックス関数での、陽性クラス
y=1
の確率および陰性クラス
y=0
の確率は次のようになります:
P(y=1∣z)=ez0+ez1ez1
P(y=0∣z)=ez0+ez1ez0ロジスティック回帰と 2 クラスソフトマックス関数の一致
ソフトマックス関数の入力
z0
を
0
に揃え、
z0=0
z1=zとすることができます。
この状態でソフトマックス関数の確率は以下になります:
P(y=1∣z)=e0+ezez=1+ezez=1+e−z1同様に:
P(y=0∣z)=e0+eze0=1+ez1=1+e−ze−zロジスティック回帰の出力確率と 2 クラスソフトマックス関数の確率は一致することがわかります。
ソフトマックス関数の入力を変更してもいいのか
クラス
0
とクラス
1
のスコアを
z0
と
z1
としたとき、スコアを定数加算しても確率の比は変わりません。
たとえば、すべてのスコア
zi
に対して定数
c
を引いた場合:
zi′=zi−cこの変換後の確率は次のように変わります:
P(y=i∣z)=∑jezj−cezi−c分子と分母から共通の
e−c
を取り除くと:
P(y=i∣z)=∑jezj⋅e−cezi⋅e−c=∑jezjeziこのため、定数
c
を引いても確率自体は変わらないことがわかります。