하이브리드 신경망. - 페이지 20

 
rip >> :

MSE

이상하게도 MSE를 사용하여 Forex에 동일한 도구를 적용하기 시작했을 때 효과가 없었습니다. 완전히 다른 오류를 적용해야 한다고 생각합니다.

 
registred >> :

이상하게도 MSE를 사용하여 Forex에 동일한 도구를 적용하기 시작했을 때 효과가 없었습니다. 완전히 다른 오류를 적용해야 한다고 생각합니다.



알겠습니다. 어느 쪽인가요? 지도 학습의 경우 MSE로 충분하다고 생각합니다.

 
rip >> :

알겠습니다. 어느 쪽인가요? 지도 학습의 경우 MSE로 충분하다고 생각합니다.


그거 생각해 봤어. 그러나 나는 MSE가 좋지 않다는 것을 확실히 알고 있습니다. 적어도 나에게는 위의 이유 때문에. 나는 신경망의 경우 교사 (규칙)가 오류라고 생각합니다. 보편적 인 근사기이므로 시장의 방출을 고려하여이 근사의 정도, 근사의 품질을 어떻게 든 결정할 필요가 있습니다. 말하자면 시리즈를 더 고정된 형태로 가져오기 위해. 이에 대한 아이디어가 있으면 논의할 수 있습니다.

 
registred >> :


그거 생각해 봤어. 그러나 나는 MSE가 좋지 않다는 것을 확실히 알고 있습니다. 적어도 나에게는 위의 이유로. 나는 신경망의 경우 교사 (규칙)가 오류라고 생각합니다. 보편적 인 근사기이므로 시장의 방출을 고려하여이 근사의 정도, 근사의 품질을 어떻게 든 결정할 필요가 있습니다. 말하자면 시리즈를 더 고정된 형태로 가져오기 위해. 이에 대한 아이디어가 있으면 논의할 수 있습니다.


시리즈를 고정된 형태로 가져올 수 있다면 그런 FX는 없을 거라고 생각합니다 :)

 

간단히 말해서 사람들은 이미 신경망을 성공적으로 사용한 예를 가지고 있습니다. 우리는 이에 대해 더 짧게 작업해야 합니다.

 
registred >> :

간단히 말해서 사람들은 이미 신경망을 성공적으로 사용한 예를 가지고 있습니다. 우리는 이에 대해 더 짧게 작업해야 합니다.

왜 거기에 있었다. 2007년에 내 기억이 맞다면 Better가 확률적 NA로 이겼습니다.

네트워크의 임무는 코스 이동의 움직임을 예측하는 것이었습니다.

 
rip >> :

왜 거기에 있었다. 2007년에 내 기억이 맞다면 Better가 확률적 NA로 이겼습니다.

네트워크의 임무는 코스 이동의 움직임을 예측하는 것이었습니다.



네, 읽었습니다. 확률적 네트워크에는 데이터의 노이즈에 민감한 한 가지 큰 문제가 있습니다. 간단히 말해서 BackProp 및 기타 반복 방법과 달리 경험주의가 거의 없습니다.

 
registred писал(а) >>

확률적 네트워크에는 데이터의 노이즈에 민감한 한 가지 큰 문제가 있습니다.

이에 대해 자세히 설명해 주시겠습니까? 문헌에서 다른 의견을 만난 것 같습니다.

 

ANN은 유사한 방법(예: k-NN)보다 데이터 노이즈에 덜 민감하지만 MLP 등의 경우 그림이 반대일 가능성이 ...

 
lea >> :

이에 대해 자세히 설명해 주시겠습니까? 문헌에서 다른 의견을 만난 것 같습니다.


거기 설정이 뭔가요? 시그마? 어떻게 설정할 것인가? 최적의 솔루션을 찾는 방법은 무엇입니까? 이것은 나에게 명확하지 않은 질문입니다. 또 다른 것은 MLP의 경우 필수 매개변수가 오류 유형일 뿐이라는 점입니다. 저는 여전히 이것을 주장합니다. 물론, MLP가 로컬 최소값으로 날아가는데 여기에는 싸움의 트릭이 있습니다. 어쨌든 MLP의 경우 많은 문제에 대한 전역 최소값이 아닌 최적의 솔루션을 찾을 수 있습니다. PNN을 사용하여 문제가 해결되었다면 이는 매우 좋은 것입니다.