IT용어위키


경사하강법

경사 하강법(Gradient Descent)은 머신러닝 및 딥러닝에서 손실 함수의 값을 최소화하기 위해 매개변수를 반복적으로 갱신하는 최적화 기법이다.

개요

경사 하강법은 손실 함수의 기울기, 즉 그래디언트(gradient)를 계산하여, 그 반대 방향으로 파라미터를 이동시킴으로써 손실 값을 점차 줄여 나가는 방식이다. 함수의 기울기가 0에 가까워질수록 최솟값에 수렴하게 된다. 이 방식은 선형 회귀, 로지스틱 회귀, 신경망 등 다양한 모델에서 널리 사용된다.

작동 원리

경사 하강법은 다음과 같은 과정을 반복한다.

  • 현재 매개변수에서 손실 함수의 기울기를 계산한다.
  • 기울기의 반대 방향으로 일정 비율만큼 파라미터를 이동시킨다.
  • 이 과정을 원하는 수의 반복(epoch)만큼 수행한다.

여기서 이동하는 비율을 학습률(learning rate)이라고 하며, 이 값이 너무 크면 발산하고 너무 작으면 수렴 속도가 느려질 수 있다.

종류

경사 하강법은 데이터를 어떤 단위로 사용하는지에 따라 다음과 같이 나뉜다.

특징 및 한계

  • 단순하고 구현이 쉬우며, 대부분의 신경망 학습 알고리즘에서 기본이 되는 방식이다.
  • 손실 함수가 볼록(convex)한 경우에는 전역 최솟값으로 수렴이 보장된다.
  • 하지만 비볼록 함수에서는 지역 최솟값이나 안장점에 수렴할 수 있으며, 최적의 결과를 보장하지 않는다.
  • 하이퍼파라미터인 학습률 설정에 민감하다.

같이 보기

참고 문헌

  • Ian Goodfellow, Yoshua Bengio, Aaron Courville, 《Deep Learning》, MIT Press
  • Sebastian Raschka, 《Python Machine Learning》, Packt Publishing

각주


  출처: IT위키 (IT위키에서 최신 문서 보기)

  * 본 페이지는 IT Wiki에서 미러링된 페이지입니다. 일부 오류나 표현의 누락이 있을 수 있습니다. 원본 문서는 IT Wiki에서 확인하세요!