트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 631

[삭제]  
forexman77 :

두 번째 레이어의 입력에서 sigmoid에 의해 처리되는 3개의 뉴런이 있습니까? 두 번째 레이어에서 가중치를 어떻게 선택합니까? 예를 들어 0.1 단위로 -1에서 1까지의 범위가 선택됩니다.

내 네트워크에서는 두 번째 레이어에서 처리한 후 트랜잭션 수가 줄어들고 결과가 많이 개선되지 않았습니다. 9개의 입력과 1개의 출력 뉴런이 있는 퍼프세트론을 단순히 조정한 다음 다른 독립 퍼프세트론을 가져와서 첫 번째의 저장된 설정 등으로 다시 조정하는 것과 대조적입니다.

네 번째 뉴런은 첫 번째 세 개의 결과를 처리합니다. + 3개의 추가 무게

예, -1에서 1까지 0.1씩 증가하지만 시그모이드가 아니라 접선

이제 첫 번째 입력과 동일한 가중치로 중간 레이어를 만들려고 했습니다. 트랜잭션 수와 품질도 떨어지고 추가 9개의 가중치를 최적화하는 것은 이미 너무 많습니다. :)

귀하의 변형은 좋은 것 같습니다. 또한 최적화 결과에 대해 일반 신경망을 훈련시키는 것에 대해 생각하고 있었습니다. 시도해야 합니다. 그러나 나는 이 접근 방식에 싫증이 나기 시작했습니다.

 
막심 드미트리예프스키 :

네 번째 뉴런은 첫 번째 세 개의 결과를 처리합니다. + 3개의 추가 무게

이제 첫 번째 입력과 동일한 가중치로 중간 레이어를 만들려고 했습니다. 트랜잭션 수와 품질도 떨어지고 추가 9개의 가중치를 최적화하는 것은 이미 너무 많습니다. :)

귀하의 변형은 좋은 것 같습니다. 또한 최적화 결과에 대해 일반 신경망을 훈련시키는 것에 대해 생각하고 있었습니다. 시도해야 합니다. 그러나 나는 이 접근 방식에 싫증이 나기 시작했습니다.

첫 번째 레이어에 지표를 만들고 두 번째 레이어에 어떤 가중치를 적용해야 하는지 시각적으로 확인해야 한다는 인상을 받았습니다. 또는 시그모이드로 처리한 다음(약 0.2에서 0.9 사이의 값을 얻음) 작은 가중치를 사용할 수 있고 큰 범위가 필요하지 않습니다.

또한 입력에 대한 참조가 없는 추가 가중치는 Dr.Trader가 나에게 제안한 단순히 바이어스 가중치입니다. 편향은 결과를 약간 향상시킵니다. 예를 들어 수익성은 1.7이고 편향은 1.8이 됩니다. https://www.mql5.com/ru/forum/86386/page505#comment_5856699

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2017.10.04
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
[삭제]  
forexman77 :

첫 번째 레이어에 지표를 만들고 두 번째 레이어에 어떤 가중치를 적용해야 하는지 시각적으로 확인해야 한다는 인상을 받았습니다. 또는 시그모이드로 처리한 다음(약 0.2에서 0.9 사이의 값을 얻음) 작은 가중치를 사용할 수 있고 큰 범위가 필요하지 않습니다.

또한 입력에 대한 참조가 없는 추가 가중치는 Dr.Trader가 나에게 제안한 단순히 바이어스 가중치입니다. 편향은 결과를 약간 향상시킵니다. 예를 들어 수익성은 1.7이고 편향은 1.8이 됩니다. https://www.mql5.com/ru/forum/86386/page505#comment_5856699

순수한 즉석에서 무언가를 하는 것은 어렵습니다. :) 그러나 주요 문제는 여전히 남아 있습니다 - 재교육
 
막심 드미트리예프스키 :
순수한 즉석에서 무언가를 하는 것은 어렵습니다. :) 그러나 주요 문제는 여전히 남아 있습니다 - 재교육

뭐, 5~10개의 뉴런을 재훈련시키는 것은 전혀 문제가 되지 않습니다.)) 어딘가에 있는 것 같습니다.

컴퓨터에 흥미로운 사례가 있었습니다. 연설문이 있습니다. 이 연설에 노이즈가 생성되고 겹쳐집니다. 그런 다음 간단한 MLP가 훈련되고 다시 거의 순수한 연설을 듣습니다.

나는 일반적으로 이것에 질려버렸지만 Khaikin에서는 그러한 소음 감소가 적용의 예로 설명되어 있습니다.

[삭제]  
유리 아사울렌코 :

뭐, 5~10개의 뉴런을 재훈련시키는 것은 전혀 문제가 되지 않습니다.)) 어딘가에 있는 것 같습니다.

컴퓨터에 흥미로운 사례가 있었습니다. 연설문이 있습니다. 이 연설에 노이즈가 생성되고 겹쳐집니다. 그런 다음 간단한 MLP가 훈련되고 다시 거의 순수한 연설을 듣습니다.

나는 일반적으로 이것에 질려버렸지만 Khaikin에서는 그러한 소음 감소가 적용의 예로 설명되어 있습니다.

예,하지만 이것은 봇 중 하나 일뿐입니다. 작동하지 않았습니다. 그와 함께 무화과, 다른 것으로 전환합니다. 합성이 발생할 때까지 원을 그리며 :) 또는 지루해집니다.
 
욕설에 몸을 굽히지 말고 욕설도 조심하세요.
[삭제]  
일부 쓰레기는 놓친 것 같습니다. 참여할 시간이 없었던 것이 유감입니다.
 
막심 드미트리예프스키 :
일부 쓰레기가 빠진 것 같습니다, 참여할 시간이 없었던 것이 유감입니다

내가 uv에 답한 내 메시지를 삭제했습니다. Terentvu는 시계열 에 대한 테스트에 대해 기사의 지역 작가가 아마추어일 뿐이라고 말했습니다. 왜냐하면 70-80%의 정확도로 샤프 비율이 20을 넘을 것이라는 점을 이해하지 못하기 때문입니다.

[삭제]  
독성 :

내가 uv에 답한 내 메시지를 삭제했습니다. Terentvu는 시계열에 대한 테스트에 대해 기사의 지역 작가가 아마추어일 뿐이라고 말했습니다. 왜냐하면 70-80%의 정확도로 샤프 비율이 20을 넘을 것이라는 것을 이해하지 못하기 때문입니다.

아, 알았어)

[삭제]  

저는 강화 학습에 대해 여기에 있습니다. 모든 것에 관심이 있습니다. 흥미로운 기사를 찾았습니다. 구매하여 mb를 봇에 연결하려고 합니다.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

그는 어떤 종류의 넌센스를 가지고 있으며 결국 그는 어떤 이유로 만 구매하는 법을 배웁니다.

The Self Learning Quant – Hacker Noon
The Self Learning Quant – Hacker Noon
  • 2016.09.27
  • Daniel Zakrisson
  • hackernoon.com
Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable…