지뢰밭에서의 시장예절 또는 예의범절 - 페이지 25

 
registred писал(а) >>

여러분, 얕은 지역 최솟값과 비뚤어진 초기 가중치로 비행하는 데 어떻게 어려움을 겪고 있는지 알려주십시오. 내가 알기로는 처음에는 훈련에 어떤 식으로든 영향을 미치지 않지만 나중에는 결과에 매우 강하게 영향을 미치기 시작합니다.

매 단계마다 네트워크를 재교육하는 것을 원칙으로 했습니다. 이러한 설정에서 네트워크는 때때로 "없을 수 있지만" 다음 단계에서는 이미 필요한 위치에 있다는 것이 분명합니다. 내 생각은 네트워크 학습이 "잘못된" 확률이 눈에 띄게 1보다 작으며 일반적으로 많은 재교육 샘플에서 "미친 아이들"의 기여가 최소화된다는 사실에 기반합니다.

paralocus 작성 >>

나는 다음 epoch의 기여 승수를 줄이는 방법에 대해 조금 이해하지 못했습니다 .... 교육이 끝날 때까지 출력 레이어의 가중치는 매우 작아지고 숨겨진 레이어의 가중치는 반대로 크다.

경고: W2[0] = -0.0414 W2[1] = 0.0188 W2[2] = -0.0539

경고: W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5 ]=-37.5899

여기서 스스로 생각해야 합니다. 나는 예상되는 가격 상승의 징후만 예측합니다(+/-1). 이것은 거래의 세부 사항(위의 여러 게시물 거래의 기본 방정식 참조)과 진폭과 부호를 동시에 예측하려는 시도가 작업을 극적으로 복잡하게 한다는 사실(NN 아키텍처 및 교육 에포크 수가 증가함) 때문입니다. 여기에서는 그리드가 모든 단계에서 재교육되지 않더라도 가정용 PC의 용량으로는 충분하지 않을 수 있습니다! 그래서 전통적으로 VR의 절대값을 예측할 때 어느 정도 이하가 될 때까지 각 epoch에서 학습오류를 제어한다. 이 프로세스는 수렴되지 않을 수 있습니다. 그리드는 끝없는 루프에 매달려 있으며 이를 혼수상태에서 벗어나게 하는 메커니즘이 필요합니다. 이것을 실험할 때 학습오류의 감소율을 조절하고 조건이 충족되면 모든 가중치를 무작위화했습니다. 거의 처음부터 다시 시작했습니다. 동시에 1-j/N 법칙에 따라 감소하는 각 epoch의 가중치(각 가중치 보정 전 계수)와 훈련에 필요한 대략적인 Epoch 수를 알아낼 필요가 있었습니다. 여기서 j의 범위는 1에서 N입니다. 진폭 예측을 중단한 후 네트워크는 빠르고 효율적으로 훈련되었으므로 학습 오류를 모니터링하지 않고 고정된 수의 훈련 에포크를 도입할 수 있었습니다.

그래도 예측에서 예측으로 이동하면서 Epoch 수를 줄이기 위해 네트워크 가중치 값을 무작위화하지 않고 저장했습니다. 이 경우 일부 가중치의 "고정" 효과가 때때로 관찰되었으며, 이는 무한히 증가하거나 0이 되는 경향이 나타납니다. 나는 이것으로 어려움을 겪었습니다. 새로운 예측으로 모든 가중치에 연산자인 th()에 영향을 미쳤습니다. 효과적으로 도왔습니다.

 
Neutron >> :
... 훈련 오류 모니터링이 없는 고정된 수의 훈련 에포크.

문제가 해결되었습니다!

 

중성자 에게

이제 저는 전체 2개 레이어를 보다 컴팩트한 형태로 다시 작성하고 있습니다. 모든 것을 2~3개 함수의 행렬 연산으로 줄이고 싶습니다. 완료되면 포스팅하겠습니다.

동시에 나는 진폭 예측을 "차단"할 것입니다. 사실, 그 표시는 충분합니다.

 
Neutron >> :

여기서 스스로 생각해야 합니다.

진폭 오류 계산에서 부호 오류 계산으로 이동하는 방법에 대해 생각하려고 했습니까?

즉, 여기?

d_2_out = test - out ;                                              // Ошибка на выходе сетки
 

아니요. 나는 일반적으로 이야기했다. 분명히 당신의 길을 갈 것입니다 ...

 

불필요한 과장을 피하기 위해 PM을 통해 몇 가지 질문을 하고 싶습니다.

당신이 팬이 아니라는 것을 알고 있습니다 ...

허락해줄래?

 
물어!
 
Neutron >> :
물어!

여가 시간에 퍼스널 룩으로 토다룩 :-)

 
대답했다.
 
Neutron >> :

매 단계마다 네트워크를 재교육하는 것을 원칙으로 했습니다. 이러한 설정에서 네트워크는 때때로 "없을 수 있지만" 다음 단계에서는 이미 있어야 할 위치에 있다는 것이 분명합니다. 내 생각은 네트워크 학습이 "잘못된" 확률이 눈에 띄게 1보다 작으며 일반적으로 재교육의 많은 샘플에서 "미친 아이들"의 기여가 최소화된다는 사실에 기반합니다.

"모든 단계에서 재교육"이 의미하는 바를 잘 이해하지 못합니까?