Won_AI

  • 홈
  • 태그
  • 방명록

Residual Block 1

(CVPR, 2016) Deep Residual Learning for Image Recognition: Resnet

1. Introduction 지금까지 CNN을 개선해오며, layer 수를 늘리려 시도했으나 여러 문제들로 인해 좌절되어왔다. 이전까지 layer을 늘리면서 생긴 문제들은 다음과 같다. 1. vanishing or exploding gradient 2. overffiting 1번의 경우 gradient 값이 0에 근사하거나 혹은 지나치게 커져서 parameter의 update가 상당히 느려지고, 그 결과 layer을 늘렸음에도 불구하고 정확도가 높아지지 않는 현상이다. 2번의 경우 layer의 증가가 지나치게 복잡한 model을 만들어서, train accuracy는 매우 높지만 test accuracy는 높지 않은 현상이다. 1번의 경우에는 batch normalization과 같은 normalizat..

paper summary and review/CNN(Convolutional Neural Network) 2021.08.01
1
더보기
프로필사진

KAIST Mathematical Science / Computer Science. 19

Github A solid styled icon from Orion Icon Library.
  • 분류 전체보기 (13)
    • paper list (1)
    • paper summary and review (8)
      • CNN(Convolutional Neural Ne.. (1)
      • Meta-learning(Supervised) (4)
      • Meta-learning(Unsupervised) (0)
    • PRML (4)
      • 3. Linear Models For Regres.. (1)
      • 6. Kernel Methods (3)
      • 8. Graphical Models (0)

Tag

메타러닝, DL paper, ML, MAML, meta-learning, neural network, 자기지도학습, Computer Vision, deep learning, Machine Learning, ResNet, Self-supervised Learning, 머신러닝, 메타학습, 딥러닝, Residual Block, PRML, unsupervised learning, ML paper, Few-Shot learning,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

Archives

Calendar

«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바