일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 합성곱 신경망
- 딥러닝의정석
- 유니티 음성인식
- 리액트
- react
- javascript
- NLU
- 졸업프로젝트
- Unity
- 생활코딩
- nlp
- lower_bound
- 유니티 stt
- 딥러닝
- Watson Speech to Text
- TIL
- 리액트를 다루는 기술
- JSX
- Watson IBM
- 코딩테스트
- git lfs
- 프로젝트 회고
- 카카오 블라인드 채용
- 해커톤 후기
- 프로그래머스
- speech to text
- redux
- upper_bound
- AR
- 백준
- Today
- Total
ISFP의 느리게 굴러가는 개발 블로그
[딥러닝의 정석] 5강 합성곱 신경망 본문
랩실 세미나를 진행할 때 각자 한 강씩 발표를 맡았었는데 가장 중요한 합성곱 신경망 발표를 내가 맡았다(...) 발표할 때 기억나던 것은 사시나무처럼 떨던 나의 모습이었고 .. 그래서 만족스러웠던 발표는 아니었다. 하지만 발표를 해야돼서 가장 열심히 공부했던 장이었다.
5.1 인간 시각에서의 뉴런
<시각에서의 뉴런의 기능> 인간의 눈 에서 빛 정보 포착 ↓ 빛 정보를 뇌의 시각 피질로 전달 ↓ 분석 => 이와 같은 효과적인 딥러닝 모델 구축 필요 |
5.2 특징 선택의 단점
■비올라-존스 강도 감지기
-밝고 어두운 부분의 패턴이 있다는 것을 깨달음
-91.4%라는 높은 검출률 달성 but 얼굴이 그늘로 덮이면 강도 비교가 더 이상 작동X
-> 근본적으로 ‘보는‘ 의미를 달성하지 못함

5.3 크기 조정 없는 기본 심층 신경망
■컴퓨터 비전에 딥러닝을 적용하는 목표: 제한적인 특징 선택 과정 제거
■기본 심층 신경망 사용
■문제점
-이미지의 크기가 커졌을 때 큰 가중치+많은 뉴런 필요.
-이것은 낭비+과적합 될 수 있음
합성곱층은 3차원으로 정렬된 뉴런을 가짐
=> 완전연결 뉴런들의 낭비를 피함
5.4 필터와 특징 맵
■필터
-시각 피질은 여러 층으로 구조화 되어 있음
-각 층은 이전 층에서 감지된 특징을 쌓음
■특징 맵
-원본 이미지에서 찾은 특징을 표시
-합성곱 연산을 통해 만들어짐

5.5 합성곱층 정리


완전 연결 계층의 문제점
-데이터 형상이 무시됨
-이미지: 세로*가로*채널(색상)으로 구성된 3차원 데이터
-완전 연결 계층에는 3차원 데이터->1차원 데이터로 변형
■패딩(P)
-입력 데이터 주변을 특정 값으로 채우는 것

■스트라이드(S)
-필터를 적용하는 위치의 간격
입력 크기(H,W)
필터 크기(FH, FW)
출력 크기(OH, OW)

합성곱 연산


입력 데이터의 채널 수==필터의 채널 수
필터 자체 크기는 원하는 값(필터들끼리는 같음)
■블록으로 생각하기



신경망에 4차원 데이터가 하나 흐를 때마다 N개에 대한 합성곱 연산이 이뤄짐
(N회분의 처리를 한 번에 수행)
풀링 계층
-세로*가로 방향의 공간을 줄이는 연산
-주로 이미지 인식 분야에서 최대 풀링(max pooling) 사용
-차원을 적극적으로 줄이고 특징을 뚜렷하게 함->overfitting 방지

■풀링 계층의 특징
-학습해야 할 매개변수가 없다
-채널 수가 변하지 않음 (채널마다 독립적으로 계산하기 때문)
-입력의 변화에 영향을 적게 받음
■풀링층의 두 주요 변수
-공간범위 e
-보폭 s
(신경망의 중요한 전달 능력이 손상될 수 있기 때문에 e는 작게 유지한다.)
5.7 합성곱 신경망의 전체 구조
-풀링층 수를 줄이고 여러 개의 합성곱 층을 쌓음
-풀링 연산이 파괴적이라서 합성곱층을 넣으면 더 풍부한 표현을 얻음

5.10 배치 정규화로 학습 가속하기
■배치 정규화
-학습 효율을 높이기 위해 사용
■배치 정규화 알고리즘
-평균이 0, 분산이 1이 되도록 정규화하는 것
벽돌 쌓기처럼 최하층 뉴런들의 분포가 바뀌면 학습을 느리게 할 수 있음
-> 배치 정규화: 모든 층의 입력을 정규화함

■배치 정규화
1. 비선형성을 통과하기 전에 한 층으로 들어오는 로짓 벡터를 가로챈다
2. 미니배치의 모든 예제에서 로짓 벡터의 각 요소를 정규화한다.
3. 정규화된 입력을 Aaffine 변환을 사용하여 표현 능력을 복원한다.
5.12 합성곱 신경망 학습 시각화하기
-합성곱층은 계층적으로 표현을 배움
-첫 번째 합성곱층->기본 특징(모서리, 단순 곡선) 학습
-두 번째 합성곱층-> 더 복잡한 특징
5.13 합성곱 필터로 예술 스타일 복제하기
■Neural Style
-무작위로 찍은 사진을 그림처럼 그릴 수 있게 함

미리 학습된 내용P, 스타일A image에서 각각의 feature map 추출
P의 content, A의 style과 비슷해지도록 output 픽셀을 optimize

'학교 공부 > 여름방학 랩인턴' 카테고리의 다른 글
[딥러닝의 정석] 3강 텐서플로로 신경망 구현하기 (0) | 2020.11.15 |
---|---|
[딥러닝의 정석] 2강 전방향 신경망 학습 (0) | 2020.11.15 |
[딥러닝의 정석] 1강 신경망 (0) | 2020.11.15 |