트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 447

 

그는 그것을 어떻게합니까? :) 저는 매주 실제 테스트의 3번째 주에 재훈련을 계속하고 있습니다. 이번 주에 한 스톱을 잡았지만 그 다음에는 이겼고 현재 거래는 손익분기점에서 +100에 멈춥니다. 나는 지난 주에 약간의 손실을 얻었고 결과적으로 7%의 손실로 현재 불완전한 3주 동안 약 45%를 얻었습니다. 멋지네요. 가장 흥미로운 점은 그가 항상 어디서, 어떻게 했는지 알고 있던 이전의 모든 시스템에서 이것이 이례적인 일인 이유를 그가 앞뒤로 거래를 여는 이유를 이해하지 못한다는 것입니다.


 
막심 드미트리예프스키 :

그는 그것을 어떻게합니까? :) 저는 매주 실제 테스트의 3번째 주에 재훈련을 계속하고 있습니다. 이번 주에 한 스톱을 잡았지만 그 다음에는 이겼고 현재 거래는 손익분기점에서 +100에 멈춥니다. 나는 지난 주에 약간의 손실을 얻었고 결과적으로 7%의 손실로 현재 불완전한 3주 동안 약 45%를 얻었습니다. 멋지네요. 가장 흥미로운 점은 그가 항상 어디서, 어떻게 했는지 알고 있던 이전의 모든 시스템에서 이것이 이례적인 일인 이유를 그가 앞뒤로 거래를 여는 이유를 이해하지 못한다는 것입니다.



신호가 놓일 것이고 그를 지켜보는 것은 흥미로울 것입니다.

 
예브게니 벨랴예프 :

Signalchik이 배치되고 그를 지켜보는 것은 흥미로울 것입니다.

계정이 더럽고 많은 시스템이 거래/테스트 중이고..
 
막심 드미트리예프스키 :

그는 그것을 어떻게합니까? :) 저는 매주 실제 테스트의 3번째 주에 재훈련을 계속하고 있습니다. 이번 주에 한 스톱을 잡았지만 그 다음에는 이겼고 현재 거래는 손익분기점에서 +100에 멈춥니다. 나는 지난 주에 약간의 손실을 얻었고 결과적으로 7%의 손실로 현재 불완전한 3주 동안 약 45%를 얻었습니다. 멋지네요. 가장 흥미로운 점은 그가 항상 어디서, 어떻게 했는지 알고 있던 이전의 모든 시스템에서 이것이 이례적인 일인 이유를 그가 앞뒤로 거래를 여는 이유를 이해하지 못한다는 것입니다.


이런 사진 어때요? 이번주에 무슨일이 있었는지 궁금합니다..
 
mytarmailS :
이런 사진 어때요? ) 이번 주에 다음에는 어떤 일이 있었는지 궁금합니다 ..

지난 주에는 전체 보고서가 화면에 맞지 않았습니다. :) 더 좋았을 수도 있지만 어쨌든 플러스로 한 주를 마감했습니다. 그리고 나서 DAX가 추가되었지만 처음에는 잘 되지 않아 전체 수익이 감소했습니다. 예측변수와 다양한 포즈 여는 방법을 실험하면서 조금씩 꾸준히 개선하고 있습니다.


 
막심 드미트리예프스키 :

그는 그것을 어떻게합니까? :) 저는 매주 실제 테스트의 3번째 주에 재훈련을 계속하고 있습니다. 이번 주에 한 스톱을 잡았지만 그 다음에는 이겼고 현재 거래는 손익분기점에서 +100에 멈춥니다. 나는 지난 주에 약간의 손실을 얻었고 결과적으로 7%의 손실로 현재 불완전한 3주 동안 약 45%를 얻었습니다. 멋지네요. 가장 흥미로운 점은 그가 항상 어디서, 어떻게 했는지 알고 있던 이전의 모든 시스템에서 이것이 이례적인 일인 이유를 그가 앞뒤로 거래를 여는 이유를 이해하지 못한다는 것입니다.

나는 이미 신경망 이론을 공부하고 신경망에 대한 고도로 예술적인 책을 읽는 데 빠져 있습니다. 끝이 보이지 않습니다.) 훈련 시퀀스를 준비했지만 손이 세부 사항에 도달하지 못했습니다. 일주일 동안 컴퓨터. 어제 나는 집에 돌아왔고 수요일에 다시 떠날 것이다. 어쩌면 나는 여전히 뭔가를 할 수 있습니다.

Reshetovsky 뉴런으로 계속 작업하고 있다면 이것은 신경망이 아니라 적응 필터(AF)의 일부 구현인 것으로 나타났습니다. 나는 그것을 시도하지 않았고 내 손이 곧 도달하지 않을 것이지만 이론으로 판단하면 예측자가 그것을 구성합니다.

 
유리 아사울렌코 :

나는 이미 신경망 이론을 공부하고 신경망에 관한 고도로 예술적인 책을 읽는 데 빠져 있습니다. 끝이 보이지 않습니다.) 훈련 시퀀스를 준비했지만 손이 세부 사항에 도달하지 못했습니다. 일주일 동안 컴퓨터. 어제 나는 집에 돌아왔고 수요일에 다시 떠날 것이다. 어쩌면 나는 여전히 뭔가를 할 수 있습니다.

Reshetovsky 뉴런으로 계속 작업하고 있다면 이것은 신경망이 아니라 적응 필터(AF)의 일부 구현인 것으로 나타났습니다. 나는 그것을 시도하지 않았고 내 손이 곧 도달하지 않을 것이지만 이론으로 판단하면 예측자가 그것을 구성합니다.

네, 아직 있는 중이지 ns가 아니라 전문가 시스템이 ns 원리에 따라 학습할 뿐입니다. 빨리 훈련하고 싶다면 무조건 RF + 옵티마이저
 
막심 드미트리예프스키 :
네, 아직 있는 중이지 ns가 아니라 전문가 시스템이 ns 원리에 따라 학습할 뿐입니다. 빨리 훈련하고 싶다면 무조건 RF + 옵티마이저

다시 말하지만, 책으로 판단하면 NS와 RF는 완전히 다르며 대부분 교환할 수 없는 디자인입니다. 따라서 무엇이 더 좋고 무엇이 더 나쁘다고 모호하지 않게 말할 필요는 없을 것입니다. 특정 유형의 문제의 경우 m.b. 디자인 중 하나가 더 좋습니다.

제 디자인의 경우 NS가 더 나을 것입니다. 제 경우에는 TS를 대체하지 않고 보완만 해야 하기 때문입니다. 이러한 조합으로 인해 아키텍트의 계획에 따라)) NS와 TS 자체가 모두 상당히 단순화되어야 합니다.

 
유리 아사울렌코 :

다시 말하지만, 책으로 판단하면 NS와 RF는 완전히 다르며 대부분 교환할 수 없는 디자인입니다. 따라서 무엇이 더 좋고 무엇이 더 나쁘다고 모호하지 않게 말할 필요는 없을 것입니다. 특정 유형의 문제의 경우 m.b. 디자인 중 하나가 더 좋습니다.

제 디자인의 경우 NS가 더 나을 것입니다. 제 경우에는 TS를 대체하지 않고 보완만 해야 하기 때문입니다. 이러한 조합으로 인해 아키텍트의 계획에 따라)) NS와 TS 자체가 모두 상당히 단순화되어야 합니다.

그런 다음 F-ii는 동일한 분류 및 회귀를 수행합니다. 일반 MLP에는 이점이 없습니다. 때때로 선형 회귀 , SVM 또는 다항식조차도 추가하는 레이어 수에 관계없이 더 나은 결과를 제공합니다. :) 그리고 훈련하는 데 훨씬 더 오래 걸립니다. 일반적으로 나는 MLP가 끔찍한 괴물이고 거래에 있어 추악하고 금지적이며 유망하지 않다는 결론에 이르렀습니다. 특히 실제로 뇌에서 일어나는 것이 아니라 매우 원시적인 방식으로 실제 뉴런의 작동 메커니즘을 복사하기 때문입니다. :) 정상적으로 작동하고 유망한 NN만이 모든 이미지를 인식하기 위한 convolutional ns이지만 예측하는 방법을 전혀 모릅니다. 그렇다면 간단하고 빠른 분류기의 앙상블이면 충분합니다.

베이지안 분류기는 RF보다 훨씬 낫지만 나쁩니다.

 
막심 드미트리예프스키 :

지난 주에는 전체 보고서가 화면에 맞지 않았습니다. :) 더 좋았을 수도 있지만 어쨌든 플러스로 한 주를 마감했습니다. 그리고 나서 DAX가 추가되었지만 처음에는 잘 되지 않아 전체 수익이 감소했습니다. 예측변수와 다양한 포즈 여는 방법을 실험하면서 조금씩 꾸준히 개선하고 있습니다.

분류기의 목적 함수는 무엇입니까?
사유: