Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2621

 
mytarmailS #:
Para PythonPonyGE2 existe um pacote, mas eu faço-o no Pke, por isso não posso dizer o que é e como
Enganei-me nos nomes.
Evolução gramatical ou regressão simbólica ambas funcionarão
 
Valeriy Yastremskiy #:
Uma sequência de eventos/regras é eficaz, mas cada regra tem dimensionalidade e uma longa sequência tem maldições.
O mais fixe desta abordagem é que está no controlo...
Estabeleça a condição de que uma regra deve ser repetida pelo menos 200 vezes, por exemplo, e não tem uma maldição de dimensionalidade.
 
mytarmailS #:
O que é que eu fiz com os nomes insensatamente?
A evolução gramatical ou a regressão simbólica funcionam ambas.
Regressão simbólica, sim.
 
A regressão simbólica no trade-off entre enviesamento e variância parece fortemente enviesada no sentido de aumentar a variância. Isto não é certamente motivo para o abandonar, mas pode haver problemas devido à proximidade do preço com a SB.
 
Aleksey Nikolayev #:
A regressão simbólica num trade-off entre enviesamento e variância parece fortemente enviesada no sentido de aumentar a variância. Esta não é certamente uma razão para a abandonar, mas pode haver problemas devido à proximidade do preço com a SB.

É apenas um quadro sobre o qual se podem criar regras, não há nada na minha proposta sobre preço, aproximação, regressão...

 
mytarmailS #:

Não me interessa se há mil modelos, se olharem para as últimas 10 velas, é inútil, mesmo que seja GPT-3 com toda a coragem.

Tens um gerador, não tens energia...

Os meus 5 cêntimos. - Durante o treino, o peso dos neurónios não repetitivos (barras) é borrado. O peso influente permanece com os neurónios mais frequentemente confirmados. Assim, com um número fixo de barras, apenas as que são significativas têm pesos. Uma espécie de figura.

 
Dmytryi Voitukhov #:

Os meus 5 cêntimos. - Durante a aprendizagem, o peso dos neurónios não repetitivos (barras) é borrado. O peso influente permanece com os neurónios mais frequentemente confirmados. Assim, com um número fixo de barras, apenas as que são significativas têm pesos. Uma espécie de figura.

3 da manhã, o que estás a fazer Dimitri?)
 
Dmytryi Voitukhov #:

Os meus 5 cêntimos. - Durante a aprendizagem, o peso dos neurónios não repetitivos (barras) é borrado. O peso influente permanece com os neurónios mais frequentemente confirmados. Assim, com um número fixo de barras, apenas as que são significativas têm pesos. Uma espécie de figura.

Do mesmo modo, numa árvore. 5-10 divisões de topo de, por exemplo, 100 feints/barras escolherão algumas significativas, e não utilizarão o resto. Se dividir a árvore até ao fim, as últimas divisões (e as características/barras utilizadas) alterarão muito ligeiramente o resultado global. Ou seja, o resultado é aproximadamente o mesmo que em NS, só que conta mais rapidamente.
 
E se uma pessoa trocasse e desse ao ML o que é bom e o que é mau?
 
BillionerClub #:
E se alguém comercializa e dá ao ML o que é bom e o que é mau?

É uma boa ideia, só que eu penso que é importante aqui:

- Construir um grande número de estatísticas.

- Para uma pessoa negociar uma coisa (um sistema).

- Que a pessoa permaneça objectiva e que opere sistematicamente.


Neste caso, penso que se obterá uma boa avaliação e, portanto, é possível obter um benefício normal.

Razão: