트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 448

 
mytarmailS :
분류기의 목적 함수는 무엇입니까?
목표가 없으며, 집계된 모든 예측 변수의 평균에서 멀수록 이 평균에 더 빨리 수렴해야 한다는 원칙에 따라 작동합니다. 베이지안 분류기의 원리에 따라 작동하며 집계에서 예측 변수가 각 특정 사례에서 평균에서 가장 큰 편차를 제공하고 결국 다시 수렴해야 하는 가중치를 찾습니다. 음, 예측 변수를 고정된 형태로 취하기 때문에 평균이 0인 것이 분명합니다. 출력이 >0이면 매도하고 <이면 매수합니다.
 
막심 드미트리예프스키 :

일반적으로 나는 MLP가 끔찍한 괴물이고 거래에 있어 추악하고 금지적이며 유망하지 않다는 결론에 이르렀습니다. 특히 실제로 뇌에서 일어나는 것이 아니라 매우 원시적인 방식으로 실제 뉴런의 작동 메커니즘을 복사하기 때문입니다. :) 정상적으로 작동하고 유망한 NN만이 모든 이미지를 인식하기 위한 convolutional ns이지만 예측하는 방법을 전혀 모릅니다. 그렇다면 간단하고 빠른 분류기의 앙상블이면 충분합니다.

베이지안 분류기는 RF보다 훨씬 낫지만 나쁩니다.

흥미롭게도 나는 "못생긴 괴물"에 대해 정반대의 결론에 직접 도달했습니다.))

RF의 경우 최소한 선형 독립성의 요구 사항을 고려하여 중요하지 않은 예측 변수를 선택하는 것이 필요합니다. MLP 저는 시계열 을 놓치고 있으며 요구 사항이 희박합니다. 독립성은 희소 시계열(여러 TF와 유사)을 제공받는 여러 NS의 위원회에 의해 결정됩니다. 실제 거래를 위한 국회의 지연은 미미하다고 생각합니다.

아직 실제 TS가 어떻게 될지는 모르겠지만 NS는 충분히 훈련 가능한 것 같습니다. 훈련된 NN 출력 그래프의 일부를 참조하십시오. 지금까지 나는 그녀가 얼마나 정확하게 배우고 있는지 확실히 말할 수 없습니다.) 그러나 그녀는 배우고 있습니다.))


 
유리 아사울렌코 :

'못생긴 괴물'에 대해 정반대의 결론에 직접 도달했다는 점이 흥미롭다.))

RF의 경우 최소한 선형 독립성의 요구 사항을 고려하여 중요하지 않은 예측 변수를 선택하는 것이 필요합니다. MLP, 나는 시계열을 손에 넣었고 요구 사항은 린입니다. 독립성은 희소 시계열(여러 TF와 유사)을 제공받는 여러 NS의 위원회에 의해 결정됩니다. 실제 거래를 위한 국회의 시간 지연은 미미하다고 생각합니다.

아직 실제 TS가 어떻게 될지는 모르겠지만 NS는 충분히 훈련 가능한 것 같습니다. 훈련된 NN 출력 그래프의 일부를 참조하십시오.


네, 왜요. 차트에 오실레이터 형태의 예측 변수를 던지면 선형 종속인지 비선형인지 육안으로 확인할 수 있습니다. 숫자는 필요하지 않습니다. NN은 또한 재훈련될 수 있으며, 초기에 존재하지 않거나 모순되는 경우 무에서 초 비선형 관계를 생각해낼 수 없습니다.

또는 Jpredictor에서와 같이 NS 앞에 핵 기계를 사용할 필요가 있습니까? 다항식으로 입력의 차원을 증가시킨 다음 SVM 및 다른 게임을 통해 가장 유익한 정보를 남기고 다른 한편으로는 이러한 다항식 중에서 재교육하는 방법은 어려울 수 있습니다.

 
막심 드미트리예프스키 :

네, 왜요. 차트에 오실레이터 형태의 예측 변수를 던지면 선형 종속인지 비선형인지 육안으로 확인할 수 있습니다. 숫자는 필요하지 않습니다. NN은 또한 재훈련될 수 있으며, 초기에 존재하지 않거나 모순되는 경우 무에서 초 비선형 관계를 생각해낼 수 없습니다.

모든 것이 보이는 것처럼 간단하지는 않습니다. SanSanych는 1년 동안 예측 변수를 만지작거리며 한 포리스트에서 다른 포리스트로 이동했습니다(패키지에서 패키지로).

막심 드미트리예프스키 :

아니면 다항식으로 입력의 차원을 증가시킨 다음 SVM 및 다른 게임을 통해 가장 유익한 정보를 남기는 Jpredictor에서와 같이 NS 앞에 핵 기계를 사용할 필요가 있습니까?

선형 독립성과 비선형성은 서로 관련이 없습니다. 이들은 다른 개념입니다. 선형 독립
Линейная независимость — Википедия
Линейная независимость — Википедия
  • ru.wikipedia.org
имеет только одно — тривиальное — решение. − 5 ⋅ ( 1 , 0 , 0 ) + 1 ⋅ ( 5 , 0 , 0 ) = ( 0 , 0 , 0 ) . {\displaystyle -5\cdot (1,0,0)+1\cdot (5,0,0)=(0,0,0).} Пусть будет линейное пространство над полем и . называется линейно независимым множеством, если любое его конечное подмножество является линейно независимым. Конечное множество M ′...
 
막심 드미트리예프스키 :

예, 왜 차트에 오실레이터 형태의 예측 변수를 던지면 선형 종속인지 비선형인지 육안으로 확인할 수 있습니다.

PS 그건 그렇고, MLP는 단일 레이어 P.와 달리 본질적으로 비선형이며 비선형 기능을 일반화할 수 있습니다.
 
유리 아사울렌코 :
PS 그건 그렇고, MLP는 단일 레이어 P.와 달리 본질적으로 비선형이며 비선형 기능을 일반화할 수 있습니다.

아마도 그들은 RF도 할 수 있지만 그 이상은 다시 훈련하지 않습니다.
 
막심 드미트리예프스키 :
목표가 없으며, 집계된 모든 예측 변수의 평균에서 멀수록 이 평균에 더 빨리 수렴해야 한다는 원칙에 따라 작동합니다. 베이지안 분류기의 원리에 따라 작동하며 집계에서 예측 변수가 각 특정 사례에서 평균에서 가장 큰 편차를 제공하고 결국 다시 수렴해야 하는 가중치를 찾습니다. 음, 예측 변수를 고정된 형태로 취하기 때문에 평균이 0인 것이 분명합니다. 출력이 >0이면 매도하고 <이면 매수합니다.
교사가 있는지 없는지 여부조차 완전히 명확하지 않습니까? 교사가 있는 경우 분류기의 구매 신호는 무엇입니까?
 
mytarmailS :
교사가 있는지 없는지 여부조차 완전히 명확하지 않습니까? 교사가 있는 경우 분류기의 구매 신호는 무엇입니까?
가중치 최적화 프로그램에 교사가 없으면 선택되고 기사가 이미 논의되었으며 예가 있습니다. RNN Reshetov 주제를 참조하십시오.
 
막심 드미트리예프스키 :
일반적으로 신경망은 RF에 비해 이점이 없으며 오랫동안 고려되며 오류가 더 큽니다.. 빠르게 훈련하려면 확실히 RF + 옵티마이저

NS의 속도에 관하여.

특히 이를 위해 속도 실험을 했습니다. 이를 위해 레이어 구조의 MLT가 사용되었습니다[15, 15, 15, 8, 2]. 훈련 샘플 크기: 입력 - 15 x 10378, 출력 - 2 x 10378.

10 Epoch 동안 이러한 데이터에 대한 MLP 교육은 약 10분입니다.

데이터 직접 작업 - 입력 신호 15 x 10378은 3초 이내에 계산됩니다. 저것들. ~0.0003초/샘플.

TS를 구축하기에 충분합니다.)

 
유리 아사울렌코 :

NS의 속도에 관하여.

특히 이를 위해 속도 실험을 했습니다. 이를 위해 레이어 구조의 MLT가 사용되었습니다[15,15.15,8,2]. 훈련 샘플 크기: 입력 - 15 x 10378, 출력 - 2 x 10378.

10 Epoch 동안 이러한 데이터에 대한 MLP 교육은 약 10분입니다.

데이터 직접 작업 - 입력 신호 15 x 10378은 3초 이내에 계산됩니다. 저것들. ~0.0003초/샘플.

TS를 구축하기에 충분합니다.)

너무 빠른 것, 이것은 L-BFGS 알고리즘에 따라 한 시간 또는 몇 시간 단위로 훈련되어야 합니다. 나는 또한 15개의 입력을 만들었지 만 뉴런 15-20의 숨겨진 레이어 하나만, Alglib NN을 훈련했습니다 ... 간단히 말해서 기다리지 않고 입력 벡터의 크기를 줄였습니다) 10k 벡터가있는 3 개의 입력이 훈련되었습니다. 하나의 히든 레이어로 5-10분. 그리고 이것은 느린 역전파가 아니라 1-3 Epoch의 빠른 역전파입니다. i5퍼센트

그리고 10분 동안에도 기성 전략이 없고 옵티마이저에서 N번째 예측 변수, 벡터 길이, 숨겨진 계층 수 등을 정렬하여 전략을 찾아야 한다고 상상해보십시오. . . .

사유: