트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 429

 
막심 드미트리예프스키 :

(c)를 넣는 것을 잊었습니다 :))
바이올린이 필요하지 않습니다(c).
최근에 이런 결론에 도달했습니다. 내 말을 믿으십시오. 정당합니다. M 오류=0.1(TS 아님)
모바일로 쓰기 힘드네요.
Ps 참조 S. Khaikin 및 Bishop(영문)
 
블라디미르 페레르벤코 :

아니요, 그들은 거짓말을 하지 않습니다. 아래는 설명입니다 (어떤 식으로든 끝내지 않을 기사에서 :(

소개

오늘날 두 방향 모두 실제로 실제로 사용됩니다. 이 두 접근 방식의 비교 실험[ ]에서는 한 접근 방식이 다른 접근 방식에 비해 상당한 이점을 나타내지 않았지만 여전히 하나가 있습니다. 사전 훈련된 신경망은 훈련 및 계산 리소스 에 대해 훨씬 적은 수의 예제를 필요로 하며 거의 동일한 결과를 제공합니다. 일부 지역의 경우 이는 매우 중요한 이점입니다.

행운을 빕니다

글쎄, 우리는 그것을 알아 냈습니다 :) 예, 학습 속도는 특히 즐겁습니다 (모델 품질에 대한 플러스). 나중에 기사의 둘레, 내 아이디어 구현이 끝나는 방법, 주제는 확실히 실험 할 것입니다. 예를 들어 어제의 겸손한 모델에서와 같이 기간 동안 매우 흥미롭고 수익성이 있습니다.

그녀는 지금까지 괜찮습니다. 과적합이 많고 재훈련 없이는 긴 간격으로 작동하지 않지만 2-3개월 간격으로 거의 완벽하게 훈련(조정?)하고 훈련 후 일주일 동안 작동할 적절한 기회가 있습니다. 주. 솔직히 말해서, 나는 테스터에서 MO를 알기 전에 (틱이 아닌 종가로) 그런 곡선을 받은 적이 없습니다. 게다가 거의 모든 통화 쌍과 지수에 대해 잘 학습합니다. 저위험 포트폴리오를 만들 수 있습니다.

이제 주요 작업은 비선형 관계를 추가하여 테스트 샘플의 안정성을 높이는 것입니다. 작업은 중요하지 않지만 어느 정도는 해결할 수 있다고 말해야 합니다.


 
유리 아사울렌코 :
바이올린이 필요하지 않습니다(c).
최근에 이런 결론에 도달했습니다. 내 말을 믿으십시오. 정당합니다. M 오류=0.1(TS 아님)
모바일로 쓰기 힘드네요.
Ps 참조 S. Khaikin 및 Bishop(영문)

나중에 읽어야지 기억해야지

 
막심 드미트리예프스키 :

글쎄, 우리는 그것을 알아 냈습니다 :) 예, 학습 속도는 특히 즐겁습니다 (모델 품질에 대한 플러스). 나중에 기사의 둘레, 내 아이디어 구현이 끝나는 방법, 주제는 확실히 실험 할 것입니다. 예를 들어 어제의 겸손한 모델에서와 같이 기간 동안 매우 흥미롭고 수익성이 있습니다.

그녀는 지금까지 괜찮습니다. 과적합이 많고 재훈련 없이는 긴 간격으로 작동하지 않지만 2-3개월 간격으로 거의 완벽하게 훈련(조정?)하고 훈련 후 일주일 동안 작동할 적절한 기회가 있습니다. 주. 솔직히 말해서, 나는 테스터에서 MO를 알기 전에 (틱이 아닌 종가로) 그런 곡선을 받은 적이 없습니다. 게다가 거의 모든 통화 쌍과 지수에 대해 잘 학습합니다. 저위험 포트폴리오를 구축할 수 있습니다.

이제 주요 작업은 비선형 관계를 추가하여 테스트 샘플의 안정성을 높이는 것입니다. 작업은 중요하지 않지만 어느 정도는 해결할 수 있다고 말해야 합니다.


최적화는 종종 매우 좋은 결과를 찾습니다... 하지만 그게 요점이 아닙니다.
실제에서 TrendLinearReg를 사용하여 Reshetov의 RNN을 시작한 것 같습니다. 여전히 작동합니까 아니면 아이디어가 작동하지 않는 것으로 판명되었습니까?
 
산산이치 포멘코 :

최근에 나는 이전에 익숙했던 GARCH로 돌아왔습니다. 수년간의 기계 학습 후 가장 놀랐던 것은 통화를 포함한 금융 시계열에 GARCH를 적용하는 것에 대한 엄청난 양의 출판물이었습니다.


딥 네트워크와 유사한 것이 있습니까?

저는 회귀를 하지 않습니다. 그래서 저는 이 분야의 새로운 소식을 계속 추적합니다. 최신 개발 중 나는 예언자 패키지를 좋아했습니다.

분류를 위한 심층 네트워크가 날카로워집니다.

행운을 빕니다

 
도서관 :
최적화는 종종 매우 좋은 결과를 찾습니다... 하지만 그게 요점이 아닙니다.
실제에서 TrendLinearReg를 사용하여 Reshetov의 RNN을 시작한 것 같습니다. 여전히 작동합니까 아니면 아이디어가 작동하지 않는 것으로 판명되었습니까?

나는 예측자를 변경했고 먼저 버리고 싶었습니다. 그런 다음 그렇지 않다고 생각합니다. 지금은 그런 소가 필요합니다) 모스크바 지역의 프레임은 Reshetov에 남아 있었고 다른 모든 것은 다시 실행되었으며 MLP를 추가했습니다. 나는 그것을 좋아하지 않는다, 나는 오랫동안 생각한다, 이제 나는 랜드가 될 것이다. 숲 추가 + 그 과정에서 나타나는 몇 가지 아이디어 .. 즉. 일반적으로 나는 위원회를 원하거나 한 ns가 다른 ns를 가르치는 것을 원합니다. 그런 것은 항상 원본을 원합니다.

그러나 등록. 각도는 대수 그래프를 기반으로 하는 경우 입력 및 출력 모두에 대해 자체적으로 양호합니다. 예측자가 필요한 것입니다.

 
막심 드미트리예프스키 :
나는 예측자를 변경했고 먼저 버리고 싶었습니다. 그런 다음 그렇지 않다고 생각합니다. 지금은 그런 소가 필요합니다) 모스크바 지역의 프레임은 Reshetov에 남아 있었고 다른 모든 것은 다시 실행되었으며 MLP를 추가했습니다. 나는 그것을 좋아하지 않는다, 나는 오랫동안 생각한다, 이제 나는 랜드가 될 것이다. 숲 추가 + 그 과정에서 나타나는 몇 가지 아이디어 더 ..
Reshetovskaya 네트워크에는 입구가 많지 않습니다 ... 3-6, MLP에 동일한 번호가 제출되면 신속하게 계산해야합니다.
 
도서관 :
Reshetovskaya 네트워크에는 입구가 많지 않습니다 ... 3-6, MLP에 동일한 번호가 제출되면 신속하게 계산해야합니다.


예, 하지만 출구 문제는 MLP에서 발생합니다. 시장을 유능하게 억제하고 약간의 변형을 가하고 고정 시리즈의 형태로 공급하는 것으로 충분합니다.

PLUS MLP이 alglibovsky는 매번 동일한 세트에서 다르게 훈련됩니다. 한 번은 하나를 보여주고 두 번째로 - 또 다른 것을 실행하므로 여러 반복 주기(5-7)에서 다른 값을 제공합니다. 이것은 나는 모릅니다. 그래서 더 많은 입력(최대 15개)을 추가하기 시작했고 천천히 배우기 시작했습니다. 저는 소프트맥스를 사용했습니다. 나는 또한 앙상블을 시도했습니다. 일반적으로 오랫동안. 그리고 결국, 하늘빛 머신러닝 실험에서 RF는 거의 모든 단순 ML 모델보다 항상 적은 오류를 제공하는 반면 MLP는 원칙적으로 가장 큰 오류를 제공한다는 것을 알 수 있습니다. 그것을 요리하지만 실제로는 더 나빠지고 느려지는 것처럼 보입니다. San Sanych에서 여기 에서 확인을 찾았습니다.

즉, 간단한 분류기 중에서 선택하면 확실히 RF, DNN 및 기타 마지막 작은 것, RNN 및 LSTM이 다음 줄에 있습니다. 우리는 단순한 것에서 복잡한 것으로 이동합니다 :)

 
막심 드미트리예프스키 :

그러나 등록. 각도는 대수 그래프를 기반으로 하는 경우 입력 및 출력 모두에 대해 자체적으로 양호합니다. 예측자가 필요한 것입니다.

무슨 reg. 각도 및 로그 플롯?

 
도서관 :

무슨 reg. 각도 및 로그 플롯?

TrendLineregr은 주어진 수의 막대에 대한 회귀선의 기울기를 보여줍니다. 이것은 지그재그를 대체하는 예측 변수이자 목표로도 좋은 지표입니다. 저것들. 사실, 그것은 따옴표의 노이즈 성분을 제거합니다(제 생각에는)

글쎄, 로고 그래픽은 순수한 그래프에서 가져온 것이 아니라 가격의 로그에서 가져온 것입니다.

글쎄, 일반적으로 같은 grarch figurch와 arima는 항상 회귀 분석 이며 더 흥미로운 것은 아직 발명되지 않았으므로 사람들이 사용하기 때문에 어떤 형태로든 사용해야 함을 의미합니다.

사유: