사용자 도구

사이트 도구


2018_08

차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

양쪽 이전 판 이전 판
다음 판 양쪽 다음 판
2018_08 [2018/08/13 09:36]
ehmoon
2018_08 [2018/08/14 06:58]
ehmoon
줄 235: 줄 235:
 계산해주는 프로그램 개발해야 함. 계산해주는 프로그램 개발해야 함.
  
 +\\
 +\\
 +\\
 +
 +===== 14일 화요일 =====
 +
 +[Study]
 +
 +모두를 위한 머신러닝 lecture 7. ML의 실용과 몇가지 팁 부분 공부
 +
 +이번 챕터는 약간 짬뽕같은 느낌. 정리를 하자면
 +
 +(1) running rate
 +
 +(2) Overfitting
 +
 +(3) Regularization
 +
 +먼저 running rate같은 경우는 학습을 할때, 너무 러닝 rate을 너무 크게 잡으면
 +
 +overshooting 발생하여 데이터값이 위로 튀어버리고, 너무 작게 잡으면 gradient descent
 +
 +가 너무 느리게 돌아가므로 트레이닝이 끝났을때 optimal value를 찾아가지 못함.
 +
 +따라서 제대로 cost 값이 측정이 안된다면 running rate 의심해봐야 함.
 +
 +다음으로 overfitting 부분은 트레이닝을 많이 시킨다고 다 좋을것 같지만,
 +
 +오히려 너무 많은 트레이닝은 트레이닝 데이터에 의존되므로 좋지 못함.
 +
 +overfitting을 해결하는 방법으로는 3가지가 있음.
 +
 +(1) training data의 양을 늘림
 +
 +(2) feature의 개수를 줄임
 +
 +(3) regularization
 +
 +regularization은 feature 끼리의 분포가 너무 크거나 작을때 cost function을 그려보면 
 +
 +찌그러져버리는 현상이 생기는데 이때 사용하는 방법.
 +
 +모든 feature들의 range를 같은 범주로 정규화 시켜서 평평한 모양의 cost function을 만들어줌.
 +
 +lecture는 이정도 진행했고, lab으로는 running rate 오류나는 예제 찍어보고,
 +
 +텐서플로에서 제공하는 mnist 데이터 이용하여 image classification 실습해봄.
2018_08.txt · 마지막으로 수정됨: 2021/04/13 06:54 (바깥 편집)