반응형
SMALL
https://coding-saving-012.tistory.com/104
[ML/머신러닝] ReLU와 Weight 초기화
ReLU 딥러닝은 여러 개의 레이어를 통해 학습이 진행된다. 이때 입력을 받는 레이어는 input layer, 출력을 만들어내는 레이어는 output layer라고 한다. 그렇다면 레이어의 개수가 많을 때, input layer와 o
coding-saving-012.tistory.com
느낀 점
지난번 학습했었던 시그모이드와의 차이점을 비교하며 ReLU가 훨씬 나은 방법이라는 사실을 알게 되었다. ReLU가 더 나은 이유에 대해 납득하였지만 아직 직접 학습시켜보지 않아 알쏭달쏭하다.
반응형
LIST
'모각코 > 2023 여름 모각코' 카테고리의 다른 글
진저비어 팀: 모각코 4주차 모임 활동결과(23.07.26) (0) | 2023.07.27 |
---|---|
진저비어 팀: 모각코 4주차 모임 목표(23.07.26) (0) | 2023.07.27 |
진저비어 팀: 모각코 3주차 모임 목표(23.07.19) (0) | 2023.07.21 |
진저비어 팀: 모각코 2주차 모임 활동결과(23.07.12) (0) | 2023.07.14 |
진저비어 팀: 모각코 2주차 모임 목표(23.07.12) (0) | 2023.07.14 |