본문 바로가기

호기심 많은 분석가

검색하기
호기심 많은 분석가
프로필사진 DA Hun

  • 분류 전체보기 (152)
    • 정책 (12)
      • 재테크 (6)
      • 주택 (5)
    • 기업분석 (1)
    • Coding (139)
      • 시각화 (6)
      • Machine Learning & Python (21)
      • Coding Test & Algorithm (60)
      • BoostCamp (41)
      • Information (11)
Guestbook
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록RIOT CTO (1)

호기심 많은 분석가

[BoostCamp] Week3_Day12. 역대 최고의 교육자료, Custom Model

부스트캠프개발자의 지속 가능한 성장을 위한 학습 커뮤니티boostcamp.connect.or.kr개인학습(04강) AutoGrad & Optimizer딥러닝은 결국 블록(layer)의 반복이다. layer안에는 작은 layer들이 모여있기도 함torch.nn.Module딥러닝을 구성하는 Layer의 base classInput, Output, Forward, Backward 정의Input과 Output은 optional하지만, 대부분 정의해준다.Forward, Backward 때 하는 일을 정해주는 데, AutoGrad와 weight를 조절해준다.학습의 대상이 되는 parameter(tensor) 정의nn.Parameter모델을 구성하기 위해서는 학습의 대상이 되는 weight들을 정해야 하는데 weig..

Coding/BoostCamp 2021. 8. 21. 02:06
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바