카카오 계정과 연동하여 게시글에 달린
댓글 알람, 소식등을 빠르게 받아보세요

가장 핫한 댓글은?

본문이 수정되지 않는 박제글입니다.

mini-batch gradient descent에서

세심한 프랜시스 크릭*

2024.01.09

1

494

back propagation 중에
i번째 layer의 weight를 업데이트 시킬 gradient를 구할 때
i번째 layer의 input activation값이 필요하잖아요?
그 때 input activation값으로 batch사이즈만큼의 input activation들의 평균값을 쓰는 건가요?

카카오 계정과 연동하여 게시글에 달린
댓글 알람, 소식등을 빠르게 받아보세요

댓글 1개

침착한 노엄 촘스키*

2024.01.09

각 데이터마다 따로 구해서 나중에 평균내는거죠

댓글쓰기

게시판 목록으로 돌아가기

자유 게시판(아무개랩)에서 핫한 인기글은?

자유 게시판(아무개랩)에서 최근 댓글이 많이 달린 글

🔥 시선집중 핫한 인기글

최근 댓글이 많이 달린 글