‘밑바닥부터 시작하는 딥러닝’ 알스머 세미나 1
알스머 회원들을 대상으로 온 오프라인 세미나를 진행했습니다.
온라인으로 4주에 걸쳐 1주에 1장씩 4장까지 진행했습니다.
5주차 토요일에 오프라인으로 첫 번째 세미나를 1장에서 4장까지 진행했습니다.
세미나는 다음과 같은 방식으로 진행했습니다.
- 퍼셉트론을 분명히 알 수 있는 수준으로 설명한다.
- p51의 And 구현의 w1, w2, theta 값을 주지 않고 구하도록 한다. 충분한 시간을 준다.
- 이 값들을 구하기 위해서 ‘무엇을 어떻게 했는지에 대해서’, ‘무엇을 어떻게 하는게 좋을지에 대해서’ 가능한 많은 것들을 도출해 본다.
- http://lxmls.it.pt/2016/Deep-Neural-Networks-Are-Our-Friends.pdf 에서 Gradients are our friends 까지 진행하면서 3의 도출 내용들과 연관해서 이해하도록 한다.
- 3과 4의 내용을 기반해서 손실 함수와 최적화 함수가 하고자 하는 명확히 이해하도록 한다. 둘을 분명히 구분하도록 하고 각각이 하는 일이 무엇인지를 각인될 수준에서 강조에 강조를 더한다.
- p127의 내용을 기반으로 기울기(gradient)가 왜 중요한지, 어떻게 하자는 것인지를 이해하도록 한다. 미분에 대해서 기본에 충실한 수준에서 알도록 한다.
- 손실 함수를 이차원 그래프로 그리고 ‘왜 기울기의 반대 방향으로 x 값이 이동해야 하는지’를 거듭 거듭 강조 반복해서 명확히 하도록 한다. 추가적으로 학습률에 대해서도 연관지어 이해하도록 한다.
- 딥러닝을 하기 위해서 요구되는 것이 무엇인지를 손실 함수와 최적화 함수를 강조하면서 전반적으로 요약한다.
책에 나오는 모든 코드를 책을 참조하지 않고 모두 구현하는 것을 과제로 드렸습니다.