본문 바로가기

COURSERA/Advanced Learning Algorithms2

[Courasera] Advanced Learning Algorithms - Activation Function : 머신러닝 특화과정 본 게시물은 Courasera Andrew Ng 교수님의 머신러닝 특화 과정 Supervised Machine Learning : Advanced Learning Algorithms 을 summary 한 것입니다. 로지스틱 회귀의 시그모이드 함수와 마찬가지로 레이어의 모든 노드에서 활성 함수를 사용한다. 그러나 어떤 경우에는 다른 활성 기능을 사용하여 신경망을 더 강력하게 만들 수 있다. 첫 번째는 선형 활성 함수, 두 번째는 로지스틱 회귀에 사용되는 시그모이드 함수, 세 번째는 ReLU이다. ReLU의 특징은 z가 0보다 작으면 0이고 z가 0보다 크면 z를 반환합니다. 활성함수를 사용하는 이유는 선형분류의 한계 때문이다. 활성 함수를 사용하면 출력 값이 선형이 아니므로 선형 분류를 비선형 시스템으로 .. 2023. 3. 20.
[Courasera] Advanced Learning Algorithms - Neural Networks : 머신러닝 특화과정 본 게시물은 Courasera Andrew Ng 교수님의 머신러닝 특화 과정 Supervised Machine Learning : Advanced Learning Algorithms 을 summary 한 것입니다. 신경망은 뇌가 학습하는 방식과 거의 관련이 없지만 뇌를 모방하는 소프트웨어를 구축하려는 초기 동기가 있었다. 뇌는 전기 자극을 보내고 때로는 다른 뉴런의 새로운 연결을 형성한다. 이와 같은 뉴런에는 다른 뉴런으로부터 전기 자극을 받는 많은 입력이 있다. 따라서 위 그림과 같이 인공 신경망은 생물학적 뉴런이 하는 일에 대한 매우 단순화된 수학적 모델을 사용한다. 신경망에서 입력 값이 있는 첫 번째 계층을 input 계층이라고 하고 출력 값이 있는 마지막 계층을 output 계층이라고 하며 그 사.. 2023. 3. 20.