🗺️ 2

딥러닝_경사하강법

경사하강법- 정답과 예측 값의 차이(손실 함수)가 적어질 수 있게 최적의 가중치 값 찾기- 편미분을 사용해 손실 함수의 기울기를 계산 → 극소점(경사가 0이 되는 지점) 찾기- 최소 값이 진짜 최소 값이 아닐 수 있는 문제가 있음(전역 최소값(global minimun)이 아닌 국소 최소값(local minimun)일 수 있다)학습률(Learning Rate)- 가중치를 얼마나 이동할 것인지- 학습률이 너무 크면 최소점에 도달하지 못 할 수 있고, 너무 작으면 학습 속도가 느려짐 배치 경사하강법BGD (Batch Gradient Descent) 전체 데이터셋을 한 번에 사용하여 기울기를 계산하고 가중치를 업데이트하는 방식한 번에 모든 데이터를 계산해야 함데이터셋이 적을 때 사용 global minimun..

카테고리 없음 2025.02.11

딥러닝

인공신경망- 인간 두뇌의 신경 연결을 흉내 내 데이터에 대한 학습으로 - 학습 결과가 신경망 내의 내부 가중치로 정해져 결과의 이유를 알기가 어려움 (black boxes)퍼셉트론- 여러 개의 입력을 받아 하나의 출력으로 만드는 모델- 각 입력 값에 해당 가중치를 곱함계층뉴런이 모여 하나의 계층을 형성입력층 -> 은닉층 -> 출력층모듈여러 계층(은닉층)이 모여서 특정 덩어리를 만들 수 있음모델여러 모듈을 조합해 최종적으로 만드는 신경망 선형 vs 비선형선형 (Linear)데이터의 패턴을 찾고 직선으로 나타낼 수 있음입력 차원 × 출력 차원 => 가중치 크기더보기import torchimport torch.nn as nn# 선형 회귀모델class LinearRegressionModel(nn.Module):..

카테고리 없음 2025.02.10