https://coding-saving-012.tistory.com/104 [ML/머신러닝] ReLU와 Weight 초기화 ReLU 딥러닝은 여러 개의 레이어를 통해 학습이 진행된다. 이때 입력을 받는 레이어는 input layer, 출력을 만들어내는 레이어는 output layer라고 한다. 그렇다면 레이어의 개수가 많을 때, input layer와 o coding-saving-012.tistory.com 느낀 점 지난번 학습했었던 시그모이드와의 차이점을 비교하며 ReLU가 훨씬 나은 방법이라는 사실을 알게 되었다. ReLU가 더 나은 이유에 대해 납득하였지만 아직 직접 학습시켜보지 않아 알쏭달쏭하다.