기록지

  • 홈
  • 논문 요약
  • 태그

과적합 1

학습과 관련된 기술들

💡 'Deep Learning from Scratch'를 참고하여 작성 1. 가중치의 초깃값(Initial value) 신경망의 학습에서 특히나 중요한 것은 가중치의 초깃값입니다. 가중치의 초깃값을 무엇으로 설정하느냐에 따라 신경망 학습의 성패가 갈리는 경우가 많습니다. 1.1 초깃값을 0으로 설정 가중치의 초깃값을 모두 0으로 설정하면, 올바른 학습이 이루어지지 않습니다. 가중치가 모두 0일 경우, 순전파시 같은 값들이 다음으로 전달됩니다. 이는 오차역전파법(back-propagation)에서 모든 가중치의 값이 동일하게 갱신되도록 만듭니다. 이렇게 가중치가 고르게 되어버리는 상황을 막기 위해 초깃값은 무작위로 설정해야 합니다. 1.2 은닉층(Hidden layer)의 활성화값 분포 1.2절에서는 가중..

기초/인공지능 2021.09.10
1
더보기
프로필사진

연구 기록

  • 분류 전체보기 (10)
    • About (0)
    • 기초 (7)
      • 인공지능 (7)
    • 인공지능 논문 요약 (3)
      • Deep Network (2)
      • Text-to-Speech (1)

Tag

손실 함수, 딥러닝, 초깃값, VGGNet, 머신러닝, TTS, Auto-regressive, Tacotron, 옵티마이저, Ai, text-to-speech, 오차제곱합, 인공지능, 논문, 교차 엔트로피 오차,

최근글과 인기글

  • 최근글
  • 인기글

공지사항

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바