Dataflow

  • 홈
  • 방명록

Internal Covariate Shift 1

[9] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

2015 DNN을 훈련하는 것은 각 layer의 입력 분포가 이전 층의 매개변수가 변경되면서 훈련 중에 변화한다는 사실로 인해 복잡해진다. 이로인해 학습 속도가 느려져 낮은 학습률과 섬세한 매게변수의 초기화가 필요하며, saturated non-linearlity를 가진 모델을 훈련하기가 특히 어려워 진다. 우리는 이 현상을 inernal covariate shift라고 하며, 이 문제를 input layer를 정규화 하여 해결한다. 우리의 방법은 정규화를 모델 아키텍처의 일부로 만들고 각 train mini batch에 대해 정규화를 수행함으로써 강점을 발휘한다. 배치 정규화를 사용하면 훨씬 더 높은 학습류을 사용 할 수 있고, 초기화에 대해 조금 덜 섬세할 수 있으며, 경우에 따라서는 Dropout이..

초록 읽기/Machine Learning & Statistics 2023.08.29
이전
1
다음
더보기
프로필사진

Dataflow

개념 조금과 마주치는 문제상황을 기록하는 일기장같은 블로그입니다 #통계 #생물정보학 #기계학습

  • 분류 전체보기
    • 정리 조금
      • Bioinformatics & Biostatist..
      • Machine Learning & Statisti..
      • Basics
      • Codes
      • Basic Biology
    • 초록 읽기
      • Bioinformatics & Biostatist..
      • Machine Learning & Statisti..
      • Drug Repurposing
      • Cell Morphology
    • 해결되지 않은
    • 손으로 쓰며 이해한
    • 유용한 사이트

Tag

rnaseq, Gene set, Split Learning, LDA, QDA, PAEA, image, enrichment, Drug repurposing, F1 Score, r, Characteristic Direction, GSEA, Python, Federated Learning, virtual environment, L1000, Microarray, Deg, cmap,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

  • 코드

티스토리툴바