05-17 21:28
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Polymolphism
- Class
- Inheritance
- Entity Set
- 자바
- Mac
- Reference Type
- 리눅스 마스터 1급
- Entity
- preprocessing
- 셀레니움
- literal
- OOP
- 백준
- Operator
- descriptive statistics
- Binary Search
- Java
- spring
- X윈도우
- External Scheme
- BFS
- python
- Unity
- 리눅스
- dbms
- Physical Scheme
- selenium
- systemd
- X.org
Archives
- Today
- Total
목록배치 정규화 (1)
Byeol Lo
밑바닥부터 시작하는 딥러닝1 - 4. 학습 기법
다음은 머신러닝에서 자주 다룰 개념들이다. 최적화(Optimization) 하이퍼 파라미터(Hyper Parameter) 오버피팅(Overfitting) 위 세 주제에 대해 다뤄지는 기법들을 소개한다. 우선 Optimization는 데이터의 분포에 맞게 신경망을 학습시키는 과정을 말한다. 다음은 신경망의 가중치들을 업데이트하는 수식이다. 최적화를 하는 방법에도 많은 기법들이 소개되는데, 여기서 다뤘던 것은 SGD였다. 확률적 경사하강법(SGD : Stocastic Gradient Descent) 여기서 에타는 학습률(learning rate), 학습률과 곱해진 것은 여태 편미분을 통해 계산했던 역전파 값이다. 이 둘을 통해 가중치를 업데이트 한다. 여기서 Loss Function에 따라 신경망에게 피드백..
AI
2023. 6. 14. 16:27