Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 245

 
Andrey Dik:
Eu digo simplificar, generalizar, mas você torna tudo mais complicado e detalhado.

É assim que se faz com muita frequência. São utilizados critérios de informação, por exemplo a Akaika.

A questão é esta.

A complexidade do modelo é penalizada. Como resultado da otimização, é escolhido um modelo que não é o mais preciso, mas que é mais simples.

Agora vamos tomar um exemplo.

Vamos tirar uma amostra de mais de 5000 barras EURUSD no H1. Vamos construir uma floresta aleatória. Defina o número máximo de árvores = 500. Vemos um gráfico do erro de ajuste dependendo do número de árvores. Parece que o erro de encaixe muda muito pouco depois de 100 árvores. Além disso, aumentar a amostra não aumenta o número de árvores. E as árvores são os padrões cobiçados. Isto é, EURUSD no H1 contém cerca de 100 padrões. Mas o padrão é quase sempre sobre-treinado.

Se nós usarmos o modelo, tomarmos e reduzirmos radicalmente o número máximo de árvores, por exemplo 10, isso pode ajudar a combater o sobretreinamento.

 
SanSanych Fomenko:


Se você coarsen o modelo, tomar e reduzir drasticamente o número máximo de árvores, por exemplo 10, isso pode ajudar a combater o excesso de treinamento.

Com a floresta, o sobretreinamento não vem do número de árvores, mas de sua profundidade ilimitada (complexidade do modelo), o número reduz a variação, e o sobretreinamento são as baes
[Excluído]  
Oproblema é que..:
Com a floresta, o sobretreinamento não vem do número de árvores, mas de sua profundidade ilimitada (complexidade do modelo), o número reduz as opções, e o sobretreinamento são as baes
tudo se resume a uma divisão 50/50 ... uma perda de tempo.
 

O que eu me pergunto é.

1. A que se resume o treinamento da rede neural em algotrading?

2. Que parâmetros de dinâmica de mercado são usados no treinamento?

3. Além de reconhecer padrões na história, poderá a rede "aprender" o caráter específico do valor do parâmetro mudar no momento atual e reagir sobre ele?

(por exemplo, uma subida acentuada em forma de onda, ou uma queda suave).

 

Penso que a natureza da alteração actual no valor dos parâmetros não é reconhecível para a rede... Improvável.

E isto parece promissor para a previsão. Afinal, seria suficiente lembrar as transições dessas mudanças para poder prevê-las mais tarde.

 
Itum:
tudo se resume a uma moeda de 50/50... uma perda de tempo.

Não, há um pouco de idade. Vou simplificar: você pode extrair muito mais com MO do que qualquer outra forma, incluindo "intuição", existem padrões no mercado, com MO extraindo-os da forma mais eficaz.

 
Vizard_:

Eu mal cheguei a 0,69(0,68999) ontem. É isso, já me diverti.


Isso é óptimo!

No entanto, concordo que 0,69 é o muro que o padrão só pode arranhar, rende-me que não está na profundidade do neurônio e não no número de árvores na floresta, aqueles que estão abaixo de 0,6, há alguns truques que não sabemos e isso na verdade é muito motivador para não relaxar pãezinhos)

 
..:

Fixe!

No entanto, concordam que 0,69

Que figura é essa? Onde posso vê-lo?
 
SanSanych Fomenko:
Qual é a figura? Onde posso vê-lo?
loglos em numer.ai
 

Como alguém muito indirectamente relacionado com o MoD, não interfiro na discussão, mas vou permitir-me expressar uma opinião a partir da minha "torre do sino".

Uma rede neural multicamadas normal consiste em neurónios. A função de ativação de um neurônio é uma função monotônica que cresce de -1 a 1 (ou 0 a 1, o que quer que seja). No valor mínimo de entrada esta função dá o resultado mínimo, no valor máximo dá o resultado máximo.

Nós treinamos uma rede neural com N inputs em algum segmento (nuvem de input) no espaço N-dimensional. A rede neural não tem ideia do que fazer com os dados que se encontram fora desta nuvem. Mas nós alimentamo-la com esses dados e esperamos que produza algum resultado.


Etiqueta Konow:

3. Além de reconhecer padrões sobre a história, a rede pode "aprender" a natureza específica de um valor de parâmetro a mudar em um determinado momento e reagir a ele?

(por exemplo, uma subida acentuada ou uma queda suave).

Acho que a rede não reconhece a natureza da mudança actual do valor do parâmetro... Improvável.

Isto parece promissor para a previsão. Afinal, seria suficiente lembrar as transições dessas mudanças para poder antecipar-se a elas mais tarde.

Digamos que houve uma situação anormal no mercado e houve um pico no preço. Ou os NS, treinados em rostos humanos, recebem uma imagem de óculos coloridos como entrada. Os neurônios ficam superexcitados e sua saída vai muito para o ramo esquerdo ou direito do sigmóide. Isso significa que na saída NS obtemos algum sinal, imprevisível mas muito forte.

Se houver tais picos na amostra de treinamento (por exemplo, 1% de todos os dados), o algoritmo "solta" todos os pesos, enquanto o NS não tem tempo para "aprender" nada, mas seu trabalho é degradado em 99% dos dados "normais".

Seria muito melhor não "trancar" as NS em requisitos impossíveis, mas ensiná-la a defender-se contra entradas "anormais". E aqui temos, IMHO, duas opções.

1. Introduzir uma ou mais camadas de neurónios com uma função de activação na forma da curva Gaussiana, em vez de um sigmóide. Tal neurónio produzirá um resultado próximo de 1 na gama limitada de entradas, e próximo de 0 no resto do eixo numérico.

2 ) Alterar a interpretação das saídas NS. Em vez da interpretação binária habitual (0 - sem sinal de troca, 1 - sinal de troca) propomos a seguinte interpretação: 0 - sem sinal, 0.5 - há um sinal, 1.0 - sem sinal. Em caso de movimentos de preços inesperados, a saída de NS estará próxima de um dos valores extremos - 0 ou 1, e não produzirá nenhum sinal falso.

Respeitados especialistas, há alguma menção a essas coisas na literatura de MO e você acha isso útil? Comentários são bem-vindos.