Activate Function1 03. Activate Function 앞에서 활성화 함수는 비선형 함수를 주로 사용한다고 언급했습니다. 💡 왜 선형 함수를 사용하지 않을까요?? 바로바로 신경망의 층을 깊게 하는 의미가 없어지기 때문입니다. 선형 함수 h(x) = cx를 활성화 함수로 사용한다면, y(x) = h(h(x)) 가 됩니다. 이 식은 y = c2x와 똑같은 식입니다. 즉 은닉층을 여러 개 쌓았다고 할 수 없습니다. 비선형 함수를 사용하는 이유는 딥러닝 모델의 레이어 층을 깊게 가져갈 수 있기 때문입니다. 💡 활성화 함수를 사용하는 이유가 무엇일까요?? 딥러닝 모델의 표현력을 향상해주기 위해서 사용한다고 합니다. 기존 선형적인 딥러닝 모델로 표현이 불가능한 비선형 데이터를 표현하기 위해서는 딥러닝 모델도 비선형을 갖고 있어야 합니다. 이를 위해 활성화 함수를 사용해.. 2022. 6. 7. 이전 1 다음