경사하강법- 정답과 예측 값의 차이(손실 함수)가 적어질 수 있게 최적의 가중치 값 찾기- 편미분을 사용해 손실 함수의 기울기를 계산 → 극소점(경사가 0이 되는 지점) 찾기- 최소 값이 진짜 최소 값이 아닐 수 있는 문제가 있음(전역 최소값(global minimun)이 아닌 국소 최소값(local minimun)일 수 있다)학습률(Learning Rate)- 가중치를 얼마나 이동할 것인지- 학습률이 너무 크면 최소점에 도달하지 못 할 수 있고, 너무 작으면 학습 속도가 느려짐 배치 경사하강법BGD (Batch Gradient Descent) 전체 데이터셋을 한 번에 사용하여 기울기를 계산하고 가중치를 업데이트하는 방식한 번에 모든 데이터를 계산해야 함데이터셋이 적을 때 사용 global minimun..