트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2019

 
알렉세이 비아즈미킨 :

개인사정으로 가능합니다.

여기에 상황의 역설이 있습니다. 저는 개인적으로 다루지 않습니다) 사이트에 버그가 있습니다. 그는 재채기합니다 - 나는 당신과 Maxim에게 편지를 쓸 것입니다.

 
막심 드미트리예프스키 :

복잡하지 않고 이해만 하시면 됩니다

전원이 전혀 필요하지 않습니다. 몇 시간이 걸리는 랩톱에 LSTM이 있습니다. 비디오 카드 없이 몇 분. 권력은 신화입니다.

)), 음 ... 논란의 여지가있는 진술.

... Обучение закончено...
 ============ Обучение заняло(миллисекунд): 26832 . Эпох: 2693 ===========
 eta: 0.0100 , alpha: 0.0050
 max_long_result: 0.9986 , max_short_result: 0.9996
 min_long_result: 0.9979 , min_short_result: 0.9950
MQL을 사용한 동일한 작업은 10분 이상 걸립니다. 호스트의 프로세서 또는 프로세서 자체에 더 많은 코어가 있는 경우 속도가 증가할 수 있습니다.))).
 
파르하트 구자이로프 :

)), 음 ... 논란의 여지가있는 진술.

MQL을 사용한 동일한 작업은 10분 이상 걸립니다. 호스트의 프로세서 또는 프로세서 자체에 더 많은 코어가 있는 경우 속도가 증가할 수 있습니다.))).

30초에 2700 epoch는 너무 빠릅니다.

 
dr.mr.mom :

여기에 상황의 역설이 있습니다. 저는 개인적으로 다루지 않습니다) 사이트에 버그가 있습니다. 그는 재채기합니다 - 나는 당신과 Maxim에게 편지를 쓸 것입니다.

나는 당신에게 편지를 썼습니다. 메시지가 전달되었습니까?

 
막심 드미트리예프스키 :

30초에 2700 epoch는 너무 빠릅니다.

데이터가 충분하지 않고 배열이 400 깊이로 보이고 깊은 역사에로드하면 스트림이있는 C ++조차도 사려 깊을 것입니다)))))),하지만 가장 슬픈 것은 결국 내가 할 수 있다는 것입니다 잘 훈련된 시스템을 얻지 못하면 30000 epoch의 이정표가 있습니다. 그에 따르면 훈련은 중지되지만 이것이 훈련된 쓰레기가 아니라는 것을 스스로 이해하고 있습니다. 왜 그럴까요 ... 충돌 때문에 생각합니다. 즉, 어떤 경우에는 이것이 짧은 모델이라고 말하고 다른 경우에는 동일한 모델이 긴 모델로 표시되는 데이터 세트가 있는 것 같습니다. 그렇다면 물론 이것은 제 잼이지만 거기에 (. 이 때문에 훈련 입력 세트를 줄였습니다.

 
막심 드미트리예프스키 :

젠장 .. 이해 측면에서 어렵지 않습니다, 당신은 할 수 있습니다

일반적으로 몇 개의 레이어로 충분하며 Forex에서는 많은 깊이가 필요하지 않습니다.

그것은 단지 구조적으로 vr을 위한 더 진보된 네트워크가 있다는 것입니다. 갑자기 lstm입니다. 거기에서 이익이있을 수 있습니다. 아직 확인하지 않았습니다. 부스팅과 퍼셉트론과 같은 "고전적인" 모든 것은 VR에 전혀 적합하지 않습니다.

더 많은 레이어가 필요한지 여부는 달성된 결과로만 판단할 수 있다고 생각합니다.

이것들은 여전히 존재하는 네트워크입니다. 이름을 지정할 수 있습니다. 다양한 네트워크에서 저는 일반적으로 그다지 강력하지 않습니다.

일종의 패셔너블한 네트워크에서 실행하기 위해 샘플을 재설정할 수 있습니까?

 
파르하트 구자이로프 :

데이터가 충분하지 않고 배열이 400 깊이로 보이고 깊은 역사에로드하면 스트림이있는 C ++조차도 사려 깊을 것입니다)))))),하지만 가장 슬픈 것은 결국 내가 할 수 있다는 것입니다 잘 훈련된 시스템을 얻지 못하면 30000 epoch의 이정표가 있습니다. 그에 따르면 훈련은 중지되지만 이것이 훈련된 쓰레기가 아니라는 것을 스스로 이해하고 있습니다. 왜 그럴까요 ... 충돌 때문에 생각합니다. 즉, 어떤 경우에는 이것이 짧은 모델이라고 말하고 다른 경우에는 동일한 모델이 긴 모델로 표시되는 데이터 세트가 있는 것 같습니다. 그렇다면 물론 이것은 제 잼이지만 거기에 (. 이 때문에 훈련 입력 세트를 줄였습니다.

왜 그렇게 엄청난 수의 에포크가 .. 일반적으로 동적 학습 속도로 최대 1000 또는 100까지 충분합니까?

 
알렉세이 비아즈미킨 :

더 많은 레이어가 필요한지 여부는 달성된 결과로만 판단할 수 있다고 생각합니다.

이것들은 여전히 존재하는 네트워크입니다. 이름을 지정할 수 있습니다. 다양한 네트워크에서 저는 일반적으로 그다지 강력하지 않습니다.

일종의 패셔너블한 네트워크에서 실행하기 위해 샘플을 재설정할 수 있습니까?

저는 신경망을 배우고 있습니다. 이미 여기에 썼습니다. 이들은 주로 언어 및 사운드 처리에 사용되는 새로운 컨볼루션 및 트랜스포머 등입니다.

그들에 대한 데이터 세트는 특별한 방식으로 준비되며 일반적인 데이터 세트는 작동하지 않습니다.
 
막심 드미트리예프스키 :

저는 신경망을 배우고 있습니다. 이미 여기에 썼습니다. 이들은 주로 언어 및 사운드 처리에 사용되는 새로운 컨볼루션 및 트랜스포머 등입니다.

그들에 대한 데이터 세트는 특별한 방식으로 준비되며 일반적인 데이터 세트는 작동하지 않습니다.

요리를 할 줄 안다면 준비할 수 있습니다 ...

 
막심 드미트리예프스키 :

왜 그렇게 엄청난 수의 에포크가 .. 일반적으로 동적 학습 속도로 최대 1000 또는 100까지 충분합니까?

작업은 훈련 중에 최대 정확도를 얻는 것입니다. 정확도는 최대 1입니다. 기본 가중치가 무작위로 설정되기 때문에 때때로 1000개 미만의 Epoch가 있습니다.

사유: