목록유석문 (2)
호기심 많은 분석가

부스트캠프개발자의 지속 가능한 성장을 위한 학습 커뮤니티boostcamp.connect.or.kr개인학습(04강) AutoGrad & Optimizer딥러닝은 결국 블록(layer)의 반복이다. layer안에는 작은 layer들이 모여있기도 함torch.nn.Module딥러닝을 구성하는 Layer의 base classInput, Output, Forward, Backward 정의Input과 Output은 optional하지만, 대부분 정의해준다.Forward, Backward 때 하는 일을 정해주는 데, AutoGrad와 weight를 조절해준다.학습의 대상이 되는 parameter(tensor) 정의nn.Parameter모델을 구성하기 위해서는 학습의 대상이 되는 weight들을 정해야 하는데 weig..

부스트캠프 개발자의 지속 가능한 성장을 위한 학습 커뮤니티 boostcamp.connect.or.kr 굿모닝세션 비몽사몽한 정신으로 굿모닝세션과 함께 이번 주를 시작했다. 이미 학습 일정이 잘 나와있어서 그것을 따라 하기로! 수업은 학습 일정 따라서, Data Viz는 화, 수에 걸쳐서 학습 슬랙에 To-Do list 작성 멘토님께 학습 일정 말씀드리고, 조언받기 개인학습 (01강) Introduction to PyTorch Computational Graph 연산의 과정을 그래프로 표현 $g=(x+y)*z$ Define and Run (TF) 그래프를 먼저 정의 → 실행 시점에 데이터 Feed feed_dict를 통해 cost function에 데이터 Feed Define by Run (Dynamic ..