트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 631

 
forexman77 :

두 번째 레이어의 입력에서 sigmoid에 의해 처리되는 3개의 뉴런이 있습니까? 두 번째 레이어에서 가중치를 어떻게 선택합니까? 예를 들어 0.1 단위로 -1에서 1까지의 범위가 선택됩니다.

내 네트워크에서는 두 번째 레이어에서 처리한 후 트랜잭션 수가 줄어들고 결과가 많이 개선되지 않았습니다. 9개의 입력과 1개의 출력 뉴런이 있는 퍼프세트론을 단순히 조정한 다음 다른 독립 퍼프세트론을 가져와서 첫 번째의 저장된 설정 등으로 다시 조정하는 것과 대조적입니다.

네 번째 뉴런은 첫 번째 세 개의 결과를 처리합니다. + 3개의 추가 무게

예, -1에서 1까지 0.1씩 증가하지만 시그모이드가 아니라 접선

이제 첫 번째 입력과 동일한 가중치로 중간 레이어를 만들려고 했습니다. 트랜잭션 수와 품질도 떨어지고 추가 9개의 가중치를 최적화하는 것은 이미 너무 많습니다. :)

귀하의 변형은 좋은 것 같습니다. 또한 최적화 결과에 대해 일반 신경망을 훈련시키는 것에 대해 생각하고 있었습니다. 시도해야 합니다. 그러나 나는 이 접근 방식에 싫증이 나기 시작했습니다.

 
막심 드미트리예프스키 :

네 번째 뉴런은 첫 번째 세 개의 결과를 처리합니다. + 3개의 추가 무게

이제 첫 번째 입력과 동일한 가중치로 중간 레이어를 만들려고 했습니다. 트랜잭션 수와 품질도 떨어지고 추가 9개의 가중치를 최적화하는 것은 이미 너무 많습니다. :)

귀하의 변형은 좋은 것 같습니다. 또한 최적화 결과에 대해 일반 신경망을 훈련시키는 것에 대해 생각하고 있었습니다. 시도해야 합니다. 그러나 나는 이 접근 방식에 싫증이 나기 시작했습니다.

첫 번째 레이어에 지표를 만들고 두 번째 레이어에 어떤 가중치를 적용해야 하는지 시각적으로 확인해야 한다는 인상을 받았습니다. 또는 시그모이드로 처리한 다음(약 0.2에서 0.9 사이의 값을 얻음) 작은 가중치를 사용할 수 있고 큰 범위가 필요하지 않습니다.

또한 입력에 대한 참조가 없는 추가 가중치는 Dr.Trader가 나에게 제안한 단순히 바이어스 가중치입니다. 편향은 결과를 약간 향상시킵니다. 예를 들어 수익성은 1.7이고 편향은 1.8이 됩니다. https://www.mql5.com/ru/forum/86386/page505#comment_5856699

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2017.10.04
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
forexman77 :

첫 번째 레이어에 지표를 만들고 두 번째 레이어에 어떤 가중치를 적용해야 하는지 시각적으로 확인해야 한다는 인상을 받았습니다. 또는 시그모이드로 처리한 다음(약 0.2에서 0.9 사이의 값을 얻음) 작은 가중치를 사용할 수 있고 큰 범위가 필요하지 않습니다.

또한 입력에 대한 참조가 없는 추가 가중치는 Dr.Trader가 나에게 제안한 단순히 바이어스 가중치입니다. 편향은 결과를 약간 향상시킵니다. 예를 들어 수익성은 1.7이고 편향은 1.8이 됩니다. https://www.mql5.com/ru/forum/86386/page505#comment_5856699

순수한 즉석에서 무언가를 하는 것은 어렵습니다. :) 그러나 주요 문제는 여전히 남아 있습니다 - 재교육
 
막심 드미트리예프스키 :
순수한 즉석에서 무언가를 하는 것은 어렵습니다. :) 그러나 주요 문제는 여전히 남아 있습니다 - 재교육

뭐, 5~10개의 뉴런을 재훈련시키는 것은 전혀 문제가 되지 않습니다.)) 어딘가에 있는 것 같습니다.

컴퓨터에 흥미로운 사례가 있었습니다. 연설문이 있습니다. 이 연설에 노이즈가 생성되고 겹쳐집니다. 그런 다음 간단한 MLP가 훈련되고 다시 거의 순수한 연설을 듣습니다.

나는 일반적으로 이것에 질려버렸지만 Khaikin에서는 그러한 소음 감소가 적용의 예로 설명되어 있습니다.

 
유리 아사울렌코 :

뭐, 5~10개의 뉴런을 재훈련시키는 것은 전혀 문제가 되지 않습니다.)) 어딘가에 있는 것 같습니다.

컴퓨터에 흥미로운 사례가 있었습니다. 연설문이 있습니다. 이 연설에 노이즈가 생성되고 겹쳐집니다. 그런 다음 간단한 MLP가 훈련되고 다시 거의 순수한 연설을 듣습니다.

나는 일반적으로 이것에 질려버렸지만 Khaikin에서는 그러한 소음 감소가 적용의 예로 설명되어 있습니다.

예,하지만 이것은 봇 중 하나 일뿐입니다. 작동하지 않았습니다. 그와 함께 무화과, 다른 것으로 전환합니다. 합성이 발생할 때까지 원을 그리며 :) 또는 지루해집니다.
 
욕설에 몸을 굽히지 말고 욕설도 조심하세요.
 
일부 쓰레기는 놓친 것 같습니다. 참여할 시간이 없었던 것이 유감입니다.
 
막심 드미트리예프스키 :
일부 쓰레기가 빠진 것 같습니다, 참여할 시간이 없었던 것이 유감입니다

내가 uv에 답한 내 메시지를 삭제했습니다. Terentvu는 시계열 에 대한 테스트에 대해 기사의 지역 작가가 아마추어일 뿐이라고 말했습니다. 왜냐하면 70-80%의 정확도로 샤프 비율이 20을 넘을 것이라는 점을 이해하지 못하기 때문입니다.

 
독성 :

내가 uv에 답한 내 메시지를 삭제했습니다. Terentvu는 시계열에 대한 테스트에 대해 기사의 지역 작가가 아마추어일 뿐이라고 말했습니다. 왜냐하면 70-80%의 정확도로 샤프 비율이 20을 넘을 것이라는 것을 이해하지 못하기 때문입니다.

아, 알았어)

 

저는 강화 학습에 대해 여기에 있습니다. 모든 것에 관심이 있습니다. 흥미로운 기사를 찾았습니다. 구매하여 mb를 봇에 연결하려고 합니다.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

그는 어떤 종류의 넌센스를 가지고 있으며 결국 그는 어떤 이유로 만 구매하는 법을 배웁니다.

The Self Learning Quant – Hacker Noon
The Self Learning Quant – Hacker Noon
  • 2016.09.27
  • Daniel Zakrisson
  • hackernoon.com
Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable…