Advanced Learning Algorithms1 [Courasera] Advanced Learning Algorithms - Activation Function : 머신러닝 특화과정 본 게시물은 Courasera Andrew Ng 교수님의 머신러닝 특화 과정 Supervised Machine Learning : Advanced Learning Algorithms 을 summary 한 것입니다. 로지스틱 회귀의 시그모이드 함수와 마찬가지로 레이어의 모든 노드에서 활성 함수를 사용한다. 그러나 어떤 경우에는 다른 활성 기능을 사용하여 신경망을 더 강력하게 만들 수 있다. 첫 번째는 선형 활성 함수, 두 번째는 로지스틱 회귀에 사용되는 시그모이드 함수, 세 번째는 ReLU이다. ReLU의 특징은 z가 0보다 작으면 0이고 z가 0보다 크면 z를 반환합니다. 활성함수를 사용하는 이유는 선형분류의 한계 때문이다. 활성 함수를 사용하면 출력 값이 선형이 아니므로 선형 분류를 비선형 시스템으로 .. 2023. 3. 20. 이전 1 다음