트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3019

 
Aleksey Vyazmikin #:

그래서 제가 나무에 대한 욕심과 유전학의 차이점을 쓴 것인데, 질문을 이해하지 못했을 수도 있습니다.

신경망에서 규칙을 가져오는 것에 대해 들어본 적이 없습니다. 링크를 알려주실 수 있나요? 지금까지는 뭔가 번거로운 것이 제 상상 속에 그려지고 있습니다.

그러나 여기서 신경망은 새로운 규칙을 발행하는 속도 측면에서 나무보다 분명히 느릴 것이라고 생각합니다.

'좋은 규칙'과 '나쁜 규칙'을 구분한다는 당신의 생각은 방법론적으로 완전히 막다른 길입니다.

여러분은 어떤 이유에서인지 '좋은' 규칙(나무)이 정말 '좋은' 규칙이라고 생각합니다.

그리고 그것은 미래에 대한 모호함뿐만 아니라 어떤 기준에 따라 취할 수 있는 규칙이 전혀 없다는 사실입니다. 창이 움직이면서 변화하는 '좋음'의 가변성을 만들어내는 규칙이 있으며, 이 규칙은 창이 움직이면서 '좋음'에서 '나쁨'으로 바뀔 가능성이 매우 높습니다. 이 가변성은 예측 확률을 등급으로 나누는 값으로 정의됩니다.

일반적으로 MO 알고리즘에서는 클래스 예측 확률을 반으로 나누어 클래스로 나누지만, 이는 완전히 잘못된 방법입니다. 클래스로 나누는 값은 결코 0.5가 아니며, 이 값은 특정 예측자에 따라 달라집니다.

이제 "좋은" 나무로 돌아가 보겠습니다.

"선함"이 움직이는 임계값에 가까운 나무를 선택한 경우. 이것이 바로 제가 위에서 여러분이 선택한 "좋은" 트리가 쉽게 나쁜 트리가 될 수 있다고 주장한 이유입니다.


막다른 길입니다.

 
Igor Makanu #:

Yandex는 비슷한 글을 썼습니다 https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml

Yandex의 좋은 튜토리얼, 나쁘지 않게 작성되었습니다. 또 다른 섹션은 제 생각과 더 관련이 있습니다. 트리 구성에 사용되는 일반적인 종류의 손실 함수에 대해 설명합니다. 평균 오류 가격을 최적화하고 수익을 극대화하는 것은 오류 가격의 합을 최적화하는 것과 같다는 아이디어가 있습니다.

이를 수익으로 환산하면 거래의 총 수익과 평균 수익의 차이입니다. 이진 분류 (입력 / 입력하지 않음) 문제를 해결하고 있기 때문에 거래에서 평균 이익을 극대화하면 어리석게도 한두 개의 거래에 진입하고 나머지는 버리게됩니다.

이것이 최적화와 MO 사이의 극복 할 수없는 경계인지 아닌지 이해하려고 노력하고 있습니다.

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев
 
Aleksey Nikolayev #:

Yandex의 좋은 튜토리얼, 나쁘지 않게 작성되었습니다. 제 생각은 이 튜토리얼의 다른 섹션과 더 관련이 있습니다. 트리 구성에 사용되는 일반적인 손실 함수 유형에 대해 설명합니다. 요점은 평균 오차 가격을 최적화하고 수익을 극대화하는 것이 오차 가격의 합을 최적화하는 것과 같다는 것입니다.

이를 수익으로 환산하면 거래의 총 수익과 평균 수익의 차이입니다. 이진 분류(진입/비진입) 문제를 풀고 있기 때문에 거래에서 평균 수익을 최대화하면 어리석게도 한두 개의 거래만 진입하고 나머지는 버리게 됩니다.

이것이 최적화와 MO 사이의 극복 할 수없는 경계인지 아닌지 이해하려고 노력하고 있습니다.

자신만의 손실 함수를 작성하지 못하는 이유는 무엇인가요?

 
Maxim Dmitrievsky #:
그것은 나무에 대해 요약 한 것입니다. ) Google은 작동하며 직접 사용합니다. 딥마인드는 보통 제가 현실을 인식하는 방식과 매우 유사합니다.


조언 감사합니다!

 
Aleksey Vyazmikin #:

조언 감사합니다!

어젯밤에 주제에 대한 검색을 해보니 복잡하네요. 같은 트리가 스케일과 NS 레이어에서 규칙을 가져옵니다. 또한 초정밀 네트워크에서 규칙을 가져오고 있습니다. 더 많은 인사이트를 얻으면 포스팅하겠습니다. 탐색적 분석의 트리는 이러한 규칙 검색의 관점에서 보면 왠지 너무 멋져 보이며, 제대로 준비된 데이터 세트를 사용하면 속도 면에서 유전적 최적화를 능가할 것입니다.
제가 직접 해보지는 않았기 때문에 몇 가지 함정이 있을 수도 있습니다.
 
mytarmailS #:
다른 사람이 아닌 자신이 주제를 다뤄야 합니다.....
일단 머릿속에 떠오르면, 그것은 하나의 과정입니다.

생각해보세요.

저는 MQL5로 문제를 해결하고 있었고, 우리는 R에 대해 이야기하고 있었습니다.

사실은 사실입니다. 생각 없이 무언가를 말한 다음 덤불로 가버리는 것이죠.

 
mytarmailS #:

재미있게 글을 쓰는 데 방해가 되는 요소는 무엇인가요?

예를 들어, 동일한 부스팅에서 수익 극대화를 구현하는 방법을 아직 찾지 못했습니다.

물론 제가 무언가를 하고 있긴 하지만 이 주제에 대한 다른 유익한 의견을 듣고 싶습니다.

 
Aleksey Nikolayev #:

예를 들어, 동일한 부스팅에 수익 극대화를 구현하는 방법을 아직 찾지 못했습니다.

물론 제가 무언가를 하고 있긴 하지만 이 주제에 대한 다른 유익한 의견을 듣고 싶습니다.

정확도는 균형 잡힌 클래스에서 잘 작동합니다. 모든 표준 메트릭을 시도했지만 결과에는 거의 차이가 없습니다. 수익 극대화는 최대 수익성 거래로 마크 업을 통해 구현되지 않습니까?)
 
СанСаныч Фоменко #:

'좋은 규칙'과 '나쁜 규칙'을 구분하는 것은 방법론적으로 완전히 막다른 길입니다.

여러분은 어떻게든 "좋은" 규칙(나무)이 정말 "좋은" 규칙이라고 생각합니다.

그리고 그것은 미래에 대한 모호함뿐만 아니라 어떤 기준에 따라 취할 수 있는 규칙이 전혀 없다는 사실입니다. 창이 움직이면서 변화하는 '좋음'의 가변성을 만들어내는 규칙이 있으며, 이 규칙은 창이 움직이면서 '좋음'에서 '나쁨'으로 바뀔 가능성이 매우 높습니다. 이 가변성은 예측 확률을 등급으로 나누는 값에 의해 결정됩니다.

일반적으로 MO 알고리즘에서는 클래스 예측 확률을 반으로 나누어 클래스로 나누지만 이는 완전히 잘못된 것입니다. 클래스로 나누는 값은 절대 0.5가 아니며, 이 값은 특정 예측자에 따라 달라집니다.

이제 "좋은" 트리로 돌아가 보겠습니다.

"선함"이 움직이는 임계값에 가까운 나무를 선택한 경우. 이것이 바로 제가 위에서 선택한 "좋은" 트리가 쉽게 나쁜 트리가 될 수 있다고 주장한 이유입니다.


막다른 골목입니다.

제가 생각하는 것에 대해 스스로 가설을 세우고 그것과 모순됩니다. 처음부터 질문을 해보세요.

막다른 골목이든 아니든, 실제 결과를 보여주었습니다. 훈련 후 2 년 후 잎의 50 %가 수익성있게 3 개의 클래스를 분류하는 숲과 동일하게 보여줍니다. 제가 기억하는 한 거의 일주일에 한 번씩 정기적으로 모델을 재교육하는 개념이 있습니다.

드리프트에 대해 설명 할 필요가 없습니다. 포럼에 별도의 스레드를 만들어 문제를 해결하려는 시도가 진행되고 있습니다. 아이디어를 공유하고 싶으시면 참여하세요.

따라서이 방법은 유망하지만 개선하고 개발해야 할 것이 있습니다.

 
Aleksey Nikolayev #:

예를 들어, 동일한 부스팅에 수익 극대화를 구현하는 방법을 아직 찾지 못했습니다.

물론 제가 무언가를 하고 있긴 하지만 이 주제에 대한 다른 유익한 의견을 듣고 싶습니다.

수익 극대화에 대해 포레스트에게 훈련하는 방법을 보여드렸습니다.

이것은 피트니스 함수, 본질적으로 RL을 통한 간단한 그라데이션없는 학습입니다.

여기에 코드를 던졌지만이 방법은 큰 작업에는 그다지 효과적이지 않습니다.


대규모 작업의 경우 그라디언트 프리 학습을 그라디언트 학습, 즉 일반적인 일반적인 RL 딥으로 변환해야 합니다.

비디오의 전반부를 보면 훈련 방법을 알려줍니다.

뉴로닉스를 사용한 예가 있지만 부스트인지 다른 것인지는 중요하지 않습니다.

Deep Learning на пальцах 13 - Reinforcement Learning
Deep Learning на пальцах 13 - Reinforcement Learning
  • 2019.05.15
  • www.youtube.com
Курс: http://dlcourse.ai
사유: