해당 게시물은 Edwith에서 제공하는
머신러닝과 딥러닝 BASIC을 듣고 요약 정리한 글입니다.
Sigmoid?
0
에서 1
사이의 값을 필요로 하다.
WX=y⎣⎡2.0→p=0.71.0→p=0.20.1→p=0.1⎦⎤
SoftMax
S(yi)=∑_jeyjeyi
y⎣⎡2.01.00.1⎦⎤→⎣⎡0.70.20.1⎦⎤→⎣⎡1.00.00.0⎦⎤
SoftMax을 이용하여 수치를 0
에서 1
사이의 값으로 변환하고
One Hot Encoding을 이용하여 마지막 확률을 예측
Cost Function
Cross - Entropy를 사용
D(S,L)=−∑_iLilog(Si)
Logistic cost와 Cross entropy는 결국 같은 식
C(H(x),y)==D(S,L)
Cost Function
Loss=N1∑_iD(S(Wxi+b),Li)
Cost를 계산하며 Gradient descent알고리즘을 사용해 최적화된 값을 찾는다.