Epoch 과 Batch Size , Iterations 는 머냐?
dEpoch과 Batch Size, Iterations 의 개별 의미와 차이점을 알아보쟈. 일단 어디서 들어봤을 것이다. 일단 이런 용어들은 Machine Learning 용어들인데 일단 Machine Learning에서 가장 기본이 되는 Gradient Descent 알고리즘을 간략히 요약 해보자. Gradient Descent Machine learning에서 쓰이는 반복 학습방법이다. Gradient 기울기 / Descent 는 내림차순? 정도의 의미로 이해한다면 우리는 단순히 기울기 하강법과 같은 촌스러운 한국판 번역 이름을 만들어 낼수 있음과 동시에 직관적인 이해를 할수있을 것이다. 그리고 왜 반복학습이냐.. 머리나쁜 학생도 오랜 수련으로 스승을 뛰어넘을수 있듯이 반복적으로 정답에 근접하는 과정..
2020. 4. 5. 16:15