Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3049

 
Aleksey Nikolayev #:

O conceito de RL não é redundante para tarefas de negociação? Temos a influência do ambiente sobre o agente, mas existe uma influência do agente sobre o ambiente? É possível introduzir essa segunda influência artificialmente, mas isso faz sentido?

Duas (ou três) ideias do artigo não são supérfluas para nós: a função de perda deve refletir exatamente o que precisamos e deve ser suave (e monotônica). No nosso caso, ela deve ser o lucro e deve depender de forma suave e monotônica dos parâmetros do modelo.

A suavidade de algum análogo do lucro, provavelmente, pode ser obtida de alguma forma (por exemplo, por algo como suavização de kernel). Mas duvido muito da monotonicidade.

A base do resultado financeiro da negociação é o movimento do preço - um processo aleatório não estacionário.

Estamos tentando transformar um processo aleatório não estacionário em um processo suave e monotônico por meio de alguns truques? Talvez estejamos caminhando a passos largos? Especialmente se levarmos em conta que é extremamente difícil obter um erro de classificação inferior a 20%(!) fora do conjunto de treinamento. Talvez devêssemos começar trabalhando para reduzir o erro de classificação?

 

Leia o artigo.

Qual é a utilidade desse artigo para nós?

Ele é completamente duvidoso.

E o motivo é o seguinte.

Não me lembro de nenhuma publicação sobre IA (MO) que preveja o futuro. Eles ensinam um modelo a escrever letras manuscritas. Depois, tentam reconhecer essas letras manuscritas. Mas o modelo PRINCIPALMENTE não é ensinado a prever qual letra será escrita em seguida.

Esse é o problema que temos.

Estamos tentando usar o MO (o mesmo trabalho que fizemos com as combinações de velas) para encontrar alguns padrões nos preditores que darão a previsão correta. Mas não há garantia de que os padrões encontrados darão previsões corretas no futuro. Os padrões "certos" darão um erro e os padrões "errados" farão a previsão correta. O motivo está nos próprios algoritmos de classificação, que fornecem a VERABILIDADE de uma classe, não seu valor. Usamos a regularização mais primitiva de 0,5 para dividir em classes. E se durante o treinamento a probabilidade de um padrão "correto" = 0,5000001, por que consideramos essa probabilidade como o valor da classe?

Para fugir disso, começamos a cultivar uma horta, mas os valores dos preditores, entre os quais procuramos padrões, NÃO são estacionários ou pseudoestacionários e têm uma relação remota com o preço!

 
Aleksey Nikolayev #:

Temos a influência do ambiente sobre o agente, mas existe uma influência do agente sobre o ambiente? Provavelmente, é possível introduzir essa segunda influência artificialmente, mas isso faz sentido?

Tudo depende da tarefa em questão.

Se prevermos um alvo pronto, como a grande maioria faz, não teremos influência sobre o ambiente e não haverá necessidade de RL.

Mas se, por exemplo, a tarefa de gerenciamento de posições, paradas, retiradas...

O gerenciamento de ativos é o ambiente que nós (agente) gerenciamos.


O agente decide colocar uma ordem ou não colocar uma ordem.

a que preço,

e quando retirá-la ou movê-la,

e o que ele fará quando a perda atual na posição atual exceder n pips,

e o que ele fará se tiver cinco perdas consecutivas?


Como você pode ver, esse é um nível completamente diferente da tarefa, com muitos estados (saídas), e não um primitivo para cima/para baixo na classificação


Para simplificar ainda mais - não podemos gerenciar o mercado, mas podemos gerenciar a posição e o risco, porque podemos!


Aleksey Nikolayev #:

A suavidade de algum análogo do lucro, provavelmente, pode ser obtida de alguma forma (por exemplo, por algo como a suavização do kernel). Mas duvido muito da monotonicidade.

Eu realmente não entendo o que significa "suavidade" e por que "suavidade" é necessária....

Talvez possamos usar a otimização multicritério para encontrar a melhor solução para isso.

 
mytarmailS #:

Tudo depende da tarefa em questão.

Se prevermos um alvo pronto, como a grande maioria das pessoas faz, não teremos influência sobre o ambiente e não haverá necessidade da própria RL....

Mas se, por exemplo, a tarefa de gerenciamento de posição, paradas, retiradas ...

O gerenciamento de ativos é o ambiente, que nós (o agente) gerenciamos...


O agente decide colocar uma ordem ou não colocar uma ordem.

a que preço,

e quando retirá-la ou movimentá-la,

e o que ele fará quando a perda atual na posição atual exceder n pontos,

e o que ele fará quando tiver cinco perdas consecutivas...


Veja bem, esse é um nível completamente diferente da tarefa, com muitos estados (saídas), e não uma classificação primitiva para cima/para baixo


Para simplificar ainda mais - não podemos gerenciar o mercado, mas podemos gerenciar a posição e o risco, sim!


Eu realmente não entendo o que significa "suavidade" e por que você precisa dela....

Talvez possamos aplicar a otimização multicritério à pesquisa.

Poderíamos calcular a média do agente.
 
Valeriy Yastremskiy #:
É possível que um agente faça uma média.
https://www.mql5.com/ru/code/22915
 
СанСаныч Фоменко #:

A base do resultado financeiro da negociação é o movimento do preço - um processo aleatório não estacionário.

Estamos tentando transformar um processo aleatório não estacionário em um processo suave e monotônico por meio de alguns truques? Talvez estejamos caminhando a passos largos? Especialmente se levarmos em conta que é extremamente difícil obter um erro de classificação inferior a 20%(!) fora do conjunto de treinamento. Talvez devêssemos começar trabalhando para reduzir o erro de classificação?

Eu estava falando sobre as propriedades da função de perda minimizada pelo treinamento do modelo. Mais precisamente, sobre sua forma ideal.

 
mytarmailS #:

Eu realmente não entendo o que é necessário para a suavidade e por que a suavidade é necessária.

São os princípios básicos da otimização. A suavidade possibilita a otimização por meio de um gradiente. Caso contrário, só restarão os algoritmos de força bruta.

 
Aleksey Nikolayev #:

São os princípios básicos da otimização

Sim, eu sei disso, mas recentemente eles estavam falando sobre a suavidade da curva de capital em si, então eu realmente não entrei nessas discussões, por isso estou perguntando o que você quer dizer.

 

Fora do tópico.

Uma das melhores ofertas de todos os tempos.

ouro

risco/recompensa 1 em 24

 
mytarmailS #:

Fora do tópico...

uma das melhores ofertas de todos os tempos.

ouro

risco/recompensa 1 em 24

"Water body" é uma ótima opção)