카카오 계정과 연동하여 게시글에 달린
댓글 알람, 소식등을 빠르게 받아보세요

가장 핫한 댓글은?

본문이 수정되지 않는 박제글입니다.

mini-batch gradient descent에서

세심한 프랜시스 크릭*

2024.01.09

1

339

back propagation 중에
i번째 layer의 weight를 업데이트 시킬 gradient를 구할 때
i번째 layer의 input activation값이 필요하잖아요?
그 때 input activation값으로 batch사이즈만큼의 input activation들의 평균값을 쓰는 건가요?

카카오 계정과 연동하여 게시글에 달린
댓글 알람, 소식등을 빠르게 받아보세요

댓글 1개

침착한 노엄 촘스키*

2024.01.09

각 데이터마다 따로 구해서 나중에 평균내는거죠

댓글쓰기

게시판 목록으로 돌아가기