Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 631

 
forexman77:

Você tem três neurônios na entrada da segunda camada processados por sigmoid? Como ajustar os pesos na segunda camada, cujo intervalo é escolhido de -1 a 1 em passos de 0,1, por exemplo.

Na minha rede, após o processamento da segunda camada, o número de negócios caiu e os meus resultados não melhoraram muito. Foi diferente quando eu apenas instalei um perceptron com 9 entradas e um neurônio de saída e depois peguei outro perceptron independente e o instalei novamente com as configurações do primeiro gravado, etc.

O 4º neurônio processa os resultados dos três primeiros, ou seja, + 3 pesos a mais

Sim, de -1 a 1 em incrementos de 0,1, mas não sigmóide, mas tangente.

Tentei agora uma camada intermédia com os mesmos pesos que a primeira entrada, o número de negócios caiu e a qualidade também melhorou consideravelmente, mas optimizar 9 pesos extra é demasiado :)

A tua versão parece boa... Estava a pensar em treinar NS convencionais sobre os resultados da optimização... Vou ter de a experimentar. Mas estou a ficar aborrecido com esta abordagem.

 
Maxim Dmitrievsky:

O 4º neurônio processa os resultados dos três primeiros, ou seja, + 3 pesos a mais

Agora tentei fazer uma camada intermediária com os mesmos pesos que a primeira camada de entrada - o número de negócios caiu e a qualidade também melhorou, mas otimizar mais 9 pesos já é demais :)

A tua versão parece boa... Estava a pensar em treinar NS convencionais sobre os resultados da optimização... Vou ter de a experimentar. Mas estou a ficar aborrecido com esta abordagem.

Minha impressão é que eu deveria fazer um indicador na primeira camada e ver visualmente os pesos que deveriam ser aplicados na segunda camada. Ou processá-lo com sigmoid (então você obtém os valores de cerca de 0,2 a 0,9, aproximadamente) e então você pode pegar pequenos pesos e não precisa de uma grande variedade deles.

Mais peso adicional sem ligação à entrada é apenas um peso, o que o Dr.Trader me sugeriu. O peso adicional de enviesamento melhora um pouco os resultados, por exemplo 1,7 com enviesamento torna-se 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2017.10.04
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
forexman77:

Tenho a impressão de que você precisa fazer um indicador na primeira camada e ver visualmente que pesos aplicar na segunda camada. Ou processá-lo com sigmoid (então você obtém valores de 0,2 a 0,9 ou mais) e então você pode pegar pequenos pesos e não precisa de uma grande variedade de pesos.

Mais peso adicional sem ligação à entrada é apenas um peso, o que o Dr.Trader me sugeriu. Por exemplo, é 1.7 com parcialidade e agora é 1.8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

é difícil fazer algo em pura improvisação :) mas o principal problema até agora é a requalificação
 
Maxim Dmitrievsky:
é difícil fazer algo em pura improvisação :) mas o problema principal permanece - a reciclagem

Bem, 5-10 neurónios para reciclar não é um problema de todo). Parece estar em algum lugar assim contigo.

Havia um espécime interessante no computador. Tens um pedaço de discurso. Um ruído é gerado e sobreposto a este discurso. Então um simples MLP é ensinado, e ouvimos novamente um discurso quase puro.

Eu fiquei totalmente esquisito com isso, embora haja uma descrição de um modificador de ruído similar em Haikin como exemplo.

 
Yuriy Asaulenko:

Bem, 5-10 neurónios para reciclar não é um problema de todo). Parece estar em algum lugar assim contigo.

Havia um espécime interessante no computador. Tens um pedaço de discurso. Um ruído é gerado e sobreposto a este discurso. Então um simples MLP é ensinado, e ouvimos novamente um discurso quase puro.

Eu estava realmente aturdido com isso, embora seja descrito em Haikin como um exemplo.

Sim, mas é apenas um dos bots... Se não funcionar - nada de mais, eu mudo para outro... e assim por diante, até a síntese acontecer :) ou fico aborrecido
 
Por favor, não se abaixe aos insultos e observe o uso de palavrões.
 
Parece ter faltado alguma tareia, gostava de ter tido tempo para participar.
 
Maxim Dmitrievsky:
Algum lixo parece ter faltado, gostaria de ter tido tempo para participar.

O outro, aquele em que eu respondi ao Sr. Terenyevsky, foi apagado. Eu respondi a Terentiev sobre testes de séries cronológicas e disse que os escritores locais são amadores porque eles não entendem que com 70-80% de precisão a proporção Sharp será superior a 20, e eles não estão fazendo sentido.

 
Eunão estou:

apagou a minha mensagem onde eu respondi ao Sr. Terenyv. Terentiev sobre os testes das séries cronológicas e disse que os escritores de artigos locais são apenas amadores porque não entendem que com 70-80% de precisão a razão Sharp será superior a 20, e eles têm alguns disparates

ah, ok )

 

Eu tenho me perguntado sobre o lerning da re-informação, então eu encontrei um artigo interessante e estou tentando comprá-lo e talvez adicioná-lo ao bot.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Estou tentando comprar o bot, mas é meio idiota, ele só aprende a comprar no final por alguma razão.

The Self Learning Quant – Hacker Noon
The Self Learning Quant – Hacker Noon
  • 2016.09.27
  • Daniel Zakrisson
  • hackernoon.com
Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable…
Razão: