기고글 토론 "데이터 과학 및 머신 러닝(파트 06): 경사 하강법(Gradient Descent)"

 

새로운 기고글 데이터 과학 및 머신 러닝(파트 06): 경사 하강법(Gradient Descent) 가 게재되었습니다:

경사 하강법은 신경망과 여러가지 머신러닝 알고리즘을 훈련하는 데 중요한 역할을 합니다. 경사 하강법은 인상적인 작업을 하면서도 빠르고 지능적인 알고리즘입니다. 많은 데이터 과학자들이 잘못 알고 있기도 한데 경사 하강법이 무엇인지 살펴보겠습니다.

기본적으로 경사 하강법은 함수의 최소값을 찾는 데 사용되는 최적화 알고리즘입니다:

경사하강법 기사 gif

경사 하강법은 데이터 세트에 대해 가장 적합한 모델의 매개변수를 찾는 데 도움이 되므로 머신 러닝에서 매우 중요한 알고리즘입니다. 비용 함수(Cost Function)라는 용어를 먼저 설명하겠습니다.

작성자: Omega J Msigwa

 
여기 맨 처음에 오류가 있습니다:

첫 번째 반복

공식: x1 = x0 - 학습률 * ( 2*(x+5) ) )

x1 = 0 - 0.01 * 0.01 * 2*(0+5)

x1 = -0.01 * 10

x1 = -0.1.

0.01이 두 번 나옵니다.
사람들을 헷갈리게 하고 있습니다.