트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 391

 
박사 상인 :

확률 모델인 Reshetov의 RNN에 있습니다.

그리고 Mikhail이 사용하는 jPredictor도 있습니다. Neuronka Reshetov, 많은 입력이 있고 경사하강법 대신 일종의 학습이 있습니다.


Alglib에서 국회에 첫글부터 문제를 풀려고 노력했습니다. 네트워크 20-5-1. 성공했습니다. 그러나 아주 오랫동안, 당신은 약 2초의 해결책을 가지고 있습니다. 평균 10-20분에 대한 계산이 있고 1주기에서 2분 동안의 옵션이 있지만 분명히 실수로 실수한 것 같습니다. 신뢰성을 위해 아래 옵션에서와 같이 20개의 훈련 주기를 설정하거나 100,000번의 반복을 설정해야 합니다.

경고: 훈련(60.0%) 세그먼트의 평균 오류 =0.000(0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
경고: 검증(20.0%) 영역의 평균 오류 =0.000(0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
경고: 테스트(20.0%) 사이트의 평균 오류 =0.000(0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2

계산 시간=22.30분
0 합계 무게=3.2260
1숨 무게=0.0000
2 합. 무게=3.2258
3 합. 무게=0.0000
4솜 무게=8.7035
5 합. 무게=0.0000
6 합. 무게=3.2253
7솜 무게=0.0000
8솜 무게=3.2258
9솜 무게=0.0000
10솜 무게=3.2251
11 합. 무게=0.0000
12 합. 무게=0.0000
13 합. 무게=0.0000
14솜 무게=0.0000
15 합. 무게=0.0000
16솜 무게=0.0000
17솜 무게=0.0000
18솜 무게=0.0000
19 합. 무게=0.0000

빨리 하고싶다...
문제가 20개의 입력이 아니라 200개의 입력에 있는 경우 수십 시간이 걸립니다.
출력과 상관 관계가 낮거나 다른 입력과 상관 관계가 높은 것을 선별하여 중요한 입력을 제거하고 Fisher의 LDA를 시도한 경우에도 중요한 입력을 제거합니다. 저것들. 이러한 방법으로 선별하는 것은 도움이 되지 않고 오히려 방해가 됩니다.

분명히 모든 입력에 대한 긴 솔루션이 한 번 남아 있으며 가중치의 합으로 입력을 필터링하고 향후 사용을 위한 모델을 얻습니다. 그런 다음, 예를 들어 잘린 입력 수에 따라 일주일에 한 번 추가 교육.

속도를 위해 이 작업을 MS Azure에 제공하여 입력의 총 가중치를 얻은 다음 내 모델에서 사용할 수 있다고 생각했습니다. 나는 조금 실험했지만 어떻게 든 거기에서 무게를 가져갈 곳이 보이지 않습니다 ...

 
그렇군요 형님들!!! 즉, Decided 옵티마이저를 사용합니다. GPU에서 계산을 시작합니다. 이거 해본사람??? JPrediction은 병렬화되어 있으므로 GPU에서 프로그램을 실행하는 일만 남았습니다. GPU에서 JAVA 프로그램을 실행하는 방법을 아는 사람이 없습니까? 도움이 될 것 같아요...
 
마이클 마르쿠카이테스 :
그렇군요 형님들!!! 즉, Decided 옵티마이저를 사용합니다. GPU에서 계산을 시작합니다. 이거 해본사람??? JPrediction은 병렬화되어 있으므로 GPU에서 프로그램을 실행하는 일만 남았습니다. GPU에서 JAVA 프로그램을 실행하는 방법을 아는 사람이 없습니까? 도움이 될 것 같아요...

그리고 작업 버전과 설명에 대한 링크를 제공하십시오.
 
마이클 마르쿠카이테스 :
여보세요!!!! 지점이 죽지 않고 계속 자리를 잡고 있어 다행이라 대중에게 질문을 던집니다. 훈련용 데이터 세트가 있지만 불행히도 너무 커서 훈련이 너무 오래 걸립니다. 누군가는 자신의 개발을 사용하여 모델을 만들 수 있습니다. 그러면 함께 작동하는 방법을 볼 수 있습니다 !!!!!.
귀하의 세트는 반대입니다. 매우 작은 111개 기능, 452개 포인트입니다. 그러나 데이터를 지능적으로 수집하면(대상은 기능과 혼동되지 않음) 3~4%의 이점(정확도 - 53.5%)이 있고, 대규모 투자 펀드나 은행의 경우 중기적으로 거래할 때 이 엄청난 레버리지와 몇 달러 디포가 있는 하루 동안이면 충분합니다.
 
알료샤 :
3-4%의 이점이 있습니다(정확도 - 53.5%).
어떤 모델을 어떤 구성으로 사용하셨습니까? 왜 그들은 이것이 무작위 결과가 아니라고 결정했습니까? 이 데이터 세트와 전혀 일치하는 것이 없습니다. 그 다음 47%, 50, 53
 
알료샤 :
귀하의 세트는 반대입니다. 매우 작은 111개 기능, 452개 포인트입니다. 그러나 데이터를 지능적으로 수집하면(대상은 기능과 혼동되지 않음) 3~4%의 이점(정확도 - 53.5%)이 있고, 대규모 투자 펀드나 은행의 경우 중기적으로 거래할 때 이 엄청난 레버리지와 몇 달러 디포가 있는 하루 동안이면 충분합니다.

하루 중 신호보다 50핍을 더 잘 입력하면 충분할 것이라고 생각합니다. 매장. 스프레드보다 더 나은 수익을 올릴 수 있습니다.
 
막심 드미트리예프스키 :

그리고 작업 버전과 설명에 대한 링크를 제공하십시오.

뭐라고요? JPrediction에 연결하시겠습니까?
 
알료샤 :
귀하의 세트는 반대입니다. 매우 작은 111개 기능, 452개 포인트입니다. 그러나 데이터를 지능적으로 수집하면(대상은 기능과 혼동되지 않음) 3~4%의 이점(정확도 - 53.5%)이 있고, 대규모 투자 펀드나 은행의 경우 중기적으로 거래할 때 이 엄청난 레버리지와 몇 달러 디포가 있는 하루 동안이면 충분합니다.

글쎄, 나는 작음에 대해 모른다. 이것은 3개월 동안의 전체 선물 계약입니다. 질문이 다릅니다. 세트에 없는 2주가 더 있습니다. 그래서 저는 생각했습니다. 모델을 만들고 이 샘플에서 플레이해 보세요. 그러나 JPrediction의 도움으로 훈련은 몇 주 동안 지속되며 이는 좋지 않습니다. 따라서 다른 알고리즘을 사용하여 모델을 얻고 모델이 어떻게 작동하는지 확인하고 싶었습니다.
 
다시 말하지만, 이 집합은 분류를 위한 것입니다. 즉, 출력 변수는 이미 예측을 전달합니다. 회귀 모델을 사용하는 경우 출력 변수를 예측할 필요가 없으며 출력이 이미 미래로 실행되기 때문에 모델을 근사화하는 것으로 충분합니다. 당신이 나를 올바르게 이해했다면 이와 같은 것입니다.
 

또 다른 것은 GPU에서 프로그램을 실행하고 계산 속도를 최소 10-20배 높이는 것입니다. 여기에서 진전이 있을 거라고 생각합니다.... 인터넷에 있는 정보만 너무 오래되어서 어떻게 해야할지 모르겠습니다. 저는 프로그래머일 뿐입니다. 닭발 :-)

그리고이 모든 소란의 아이디어는 다음과 같습니다. 어떤 알고리즘이 사용되는지는 중요하지 않습니다(거짓말이지만 물론 중요합니다. 재교육을 최소화하는 것이 중요합니다) 데이터의 특성이 무엇인지, 어떻게 수집되고 준비되는지가 중요합니다 훈련을 위해. 이것이 내가 확인하고 싶었던 것입니다. 내가 수집하는 데이터에 정말 물고기가 있습니까? 예를 들어 드리겠습니다.

사유: