05-18 00:00
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- External Scheme
- Inheritance
- descriptive statistics
- OOP
- BFS
- Physical Scheme
- X윈도우
- 리눅스 마스터 1급
- 자바
- preprocessing
- Mac
- selenium
- systemd
- 백준
- Reference Type
- X.org
- Operator
- Polymolphism
- Entity Set
- 셀레니움
- literal
- Class
- Binary Search
- dbms
- python
- Entity
- Unity
- spring
- Java
- 리눅스
Archives
- Today
- Total
목록cnn (1)
Byeol Lo
밑바닥부터 시작하는 딥러닝1 - 5. 합성곱 신경망 CNN
기본적으로 신경망에서 Affine Layer - Activation Layer(ReLU) 등의 반복되는 연결들을 많이 보았다. 하지만 이번에는 Affine Layer을 다른 연산을 수행할 수 있는 계층으로 바꿔서 수행할 수 있다. CNN 구조 Conv ReLU Pooling - 선택사항 지금까지 본 신경망들은 계층 간의 노드들이 전부 연결되어 있는 완전연결 신경망(Fully-connected, 전결합)임을 알았다. 완전연결 신경망은 Affine 계층 뒤에 활성화 함수를 갖는 ReLU 계층 혹은 Sigmoid 계층이 이어졌는데, CNN은 이렇게 이어지는게 아닌 위의 세 항목들로 이어진다. 여기서 Conv를 "합성곱 계층", Pooling을 "풀링 계층"이라고 부른다. 따라서 Affine-ReLU로 연결되었..
AI
2023. 6. 15. 17:46