cost function2 02. Linear Regression 의 Hypothesis와 cost 설명 Regression 예측 값을 직선으로 표현하는 모델입니다. Regression model을 학습한다는 것은 하나의 가설을 세울 필요가 있습니다. " Linear 한 model이 우리의 data에 맞을 것이다 " 라는 가설입니다. (Linear) Hypothesis H(x) = Wx + b 위와 같이 가설을 세워줍니다. 해당 가설은 W, b의 값에 따라 여러 개의 직선으로 표현될 수 있습니다. 어떤 선이 나에게 가장 잘 맞는 선일까?? 이것을 확인하기 위해서는 실제 data와 직선(가설로 인해 생성된 data) 의 거리를 측정합니다. 이때 거리가 멀면 안좋고, 거리가 짧으면 좋은 것입니다. Cost Function 점(data)과 직선(가설)의 거리를 측정하는 것을 cost function 이라고 합니다.. 2022. 6. 15. 01. Loss Function (Cost Function) Loss Function은 Model이 얼마나 훈련 data를 잘 설명하는지 판단하는 것입니다. [ Gradient Descent ] 기울기를 이용하여 최소가 되는 값을 찾는 것입니다. [ MSE (mean square error = 평균 제곱 오차) ] [ Cross Entropy Loss ] Classification이라는 것이 위와 다른 차이점입니다. 또한 y는 범주형 이산적인 값을 갖습니다. 분류 모델이 얼마나 잘 학습했는지 측정하기 위해 사용되는 지표입니다. loss는 0 ~ 1 사이의 숫자로 측정되며, 확률분포와 예측 분포 사이의 차이를 측정합니다. 세 가지 이상의 분류 가능성이 있는 모델에서 cross entropy loss 가 자주 사용됩니다. 1. binary crossentropy Bi.. 2022. 6. 7. 이전 1 다음