본문 바로가기 메뉴 바로가기

코드 한줄

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

코드 한줄

검색하기 폼
  • 분류 전체보기 (33)
    • 딥러닝 (3)
    • 머신러닝 (9)
      • 기초 (8)
    • 영상처리 (5)
    • 프로그래밍 (13)
      • Design pattern(C++) (5)
      • Effective_Modern_C++ (0)
      • Spring (2)
      • tensorflow (5)
      • python (1)
    • 웹프로그래밍 (0)
    • 기타 유용한 설정 (0)
  • 방명록

Residual Block (1)
[keras] ResNet (residual block)

■ Degradation 문제 Deep Residual Learning for Image Recognition 논문을 보면 시작은 56-layer를 사용하면 이론적으로 더 error 가 낮아야 하지만, 20-layer 보다 더 높은 값을 나타내고 있습니다. 이는 다시말하면 layer가 깊어질수록 overfitting 의 문제가 아닌, training error 가 증가한다는 말로 네트워크가 학습이 잘 진행이 되지 않는다는 것을 의미합니다. ■ Shortcut connection (skip connection) Degradation 문제를 해결하기 위해 논문에서 제안한 방법이 shutcut connection 이란 방법으로 Gradient 를 유지할 수 있도록 shorcut을 만든 다는 것이 핵심입니다. ..

딥러닝 2020. 1. 12. 13:22
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • keras
  • backpropagation
  • 캡처방지
  • gPRC
  • implementation
  • tensorflow serving
  • SvD
  • DWT-DCT
  • flask serving
  • Digital watermarking
  • DW
  • dct
  • Residual Block
  • numpy
  • 네이버웹툰
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바