여러분, 얕은 지역 최솟값과 비뚤어진 초기 가중치로 비행하는 데 어떻게 어려움을 겪고 있는지 알려주십시오. 내가 알기로는 처음에는 훈련에 어떤 식으로든 영향을 미치지 않지만 나중에는 결과에 매우 강하게 영향을 미치기 시작합니다.
매 단계마다 네트워크를 재교육하는 것을 원칙으로 했습니다. 이러한 설정에서 네트워크는 때때로 "없을 수 있지만" 다음 단계에서는 이미 필요한 위치에 있다는 것이 분명합니다. 내 생각은 네트워크 학습이 "잘못된" 확률이 눈에 띄게 1보다 작으며 일반적으로 많은 재교육 샘플에서 "미친 아이들"의 기여가 최소화된다는 사실에 기반합니다.
여기서 스스로 생각해야 합니다. 나는 예상되는 가격 상승의 징후만 예측합니다(+/-1). 이것은 거래의 세부 사항(위의 여러 게시물 거래의 기본 방정식 참조)과 진폭과 부호를 동시에 예측하려는 시도가 작업을 극적으로 복잡하게 한다는 사실(NN 아키텍처 및 교육 에포크 수가 증가함) 때문입니다. 여기에서는 그리드가 모든 단계에서 재교육되지 않더라도 가정용 PC의 용량으로는 충분하지 않을 수 있습니다! 그래서 전통적으로 VR의 절대값을 예측할 때 어느 정도 이하가 될 때까지 각 epoch에서 학습오류를 제어한다. 이 프로세스는 수렴되지 않을 수 있습니다. 그리드는 끝없는 루프에 매달려 있으며 이를 혼수상태에서 벗어나게 하는 메커니즘이 필요합니다. 이것을 실험할 때 학습오류의 감소율을 조절하고 조건이 충족되면 모든 가중치를 무작위화했습니다. 거의 처음부터 다시 시작했습니다. 동시에 1-j/N 법칙에 따라 감소하는 각 epoch의 가중치(각 가중치 보정 전 계수)와 훈련에 필요한 대략적인 Epoch 수를 알아낼 필요가 있었습니다. 여기서 j의 범위는 1에서 N입니다. 진폭 예측을 중단한 후 네트워크는 빠르고 효율적으로 훈련되었으므로 학습 오류를 모니터링하지 않고 고정된 수의 훈련 에포크를 도입할 수 있었습니다.
그래도 예측에서 예측으로 이동하면서 Epoch 수를 줄이기 위해 네트워크 가중치 값을 무작위화하지 않고 저장했습니다. 이 경우 일부 가중치의 "고정" 효과가 때때로 관찰되었으며, 이는 무한히 증가하거나 0이 되는 경향이 나타납니다. 나는 이것으로 어려움을 겪었습니다. 새로운 예측으로 모든 가중치에 연산자인 th()에 영향을 미쳤습니다. 효과적으로 도왔습니다.
매 단계마다 네트워크를 재교육하는 것을 원칙으로 했습니다. 이러한 설정에서 네트워크는 때때로 "없을 수 있지만" 다음 단계에서는 이미 있어야 할 위치에 있다는 것이 분명합니다. 내 생각은 네트워크 학습이 "잘못된" 확률이 눈에 띄게 1보다 작으며 일반적으로 재교육의 많은 샘플에서 "미친 아이들"의 기여가 최소화된다는 사실에 기반합니다.
여러분, 얕은 지역 최솟값과 비뚤어진 초기 가중치로 비행하는 데 어떻게 어려움을 겪고 있는지 알려주십시오. 내가 알기로는 처음에는 훈련에 어떤 식으로든 영향을 미치지 않지만 나중에는 결과에 매우 강하게 영향을 미치기 시작합니다.
매 단계마다 네트워크를 재교육하는 것을 원칙으로 했습니다. 이러한 설정에서 네트워크는 때때로 "없을 수 있지만" 다음 단계에서는 이미 필요한 위치에 있다는 것이 분명합니다. 내 생각은 네트워크 학습이 "잘못된" 확률이 눈에 띄게 1보다 작으며 일반적으로 많은 재교육 샘플에서 "미친 아이들"의 기여가 최소화된다는 사실에 기반합니다.
나는 다음 epoch의 기여 승수를 줄이는 방법에 대해 조금 이해하지 못했습니다 .... 교육이 끝날 때까지 출력 레이어의 가중치는 매우 작아지고 숨겨진 레이어의 가중치는 반대로 크다.
경고: W2[0] = -0.0414 W2[1] = 0.0188 W2[2] = -0.0539
경고: W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5 ]=-37.5899여기서 스스로 생각해야 합니다. 나는 예상되는 가격 상승의 징후만 예측합니다(+/-1). 이것은 거래의 세부 사항(위의 여러 게시물 거래의 기본 방정식 참조)과 진폭과 부호를 동시에 예측하려는 시도가 작업을 극적으로 복잡하게 한다는 사실(NN 아키텍처 및 교육 에포크 수가 증가함) 때문입니다. 여기에서는 그리드가 모든 단계에서 재교육되지 않더라도 가정용 PC의 용량으로는 충분하지 않을 수 있습니다! 그래서 전통적으로 VR의 절대값을 예측할 때 어느 정도 이하가 될 때까지 각 epoch에서 학습오류를 제어한다. 이 프로세스는 수렴되지 않을 수 있습니다. 그리드는 끝없는 루프에 매달려 있으며 이를 혼수상태에서 벗어나게 하는 메커니즘이 필요합니다. 이것을 실험할 때 학습오류의 감소율을 조절하고 조건이 충족되면 모든 가중치를 무작위화했습니다. 거의 처음부터 다시 시작했습니다. 동시에 1-j/N 법칙에 따라 감소하는 각 epoch의 가중치(각 가중치 보정 전 계수)와 훈련에 필요한 대략적인 Epoch 수를 알아낼 필요가 있었습니다. 여기서 j의 범위는 1에서 N입니다. 진폭 예측을 중단한 후 네트워크는 빠르고 효율적으로 훈련되었으므로 학습 오류를 모니터링하지 않고 고정된 수의 훈련 에포크를 도입할 수 있었습니다.
그래도 예측에서 예측으로 이동하면서 Epoch 수를 줄이기 위해 네트워크 가중치 값을 무작위화하지 않고 저장했습니다. 이 경우 일부 가중치의 "고정" 효과가 때때로 관찰되었으며, 이는 무한히 증가하거나 0이 되는 경향이 나타납니다. 나는 이것으로 어려움을 겪었습니다. 새로운 예측으로 모든 가중치에 연산자인 th()에 영향을 미쳤습니다. 효과적으로 도왔습니다.
... 훈련 오류 모니터링이 없는 고정된 수의 훈련 에포크.
문제가 해결되었습니다!
중성자 에게
이제 저는 전체 2개 레이어를 보다 컴팩트한 형태로 다시 작성하고 있습니다. 모든 것을 2~3개 함수의 행렬 연산으로 줄이고 싶습니다. 완료되면 포스팅하겠습니다.
동시에 나는 진폭 예측을 "차단"할 것입니다. 사실, 그 표시는 충분합니다.
여기서 스스로 생각해야 합니다.
진폭 오류 계산에서 부호 오류 계산으로 이동하는 방법에 대해 생각하려고 했습니까?
즉, 여기?
아니요. 나는 일반적으로 이야기했다. 분명히 당신의 길을 갈 것입니다 ...
불필요한 과장을 피하기 위해 PM을 통해 몇 가지 질문을 하고 싶습니다.
당신이 팬이 아니라는 것을 알고 있습니다 ...
허락해줄래?
물어!
여가 시간에 퍼스널 룩으로 토다룩 :-)
매 단계마다 네트워크를 재교육하는 것을 원칙으로 했습니다. 이러한 설정에서 네트워크는 때때로 "없을 수 있지만" 다음 단계에서는 이미 있어야 할 위치에 있다는 것이 분명합니다. 내 생각은 네트워크 학습이 "잘못된" 확률이 눈에 띄게 1보다 작으며 일반적으로 재교육의 많은 샘플에서 "미친 아이들"의 기여가 최소화된다는 사실에 기반합니다.
"모든 단계에서 재교육"이 의미하는 바를 잘 이해하지 못합니까?