Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 593

 
Maxim Dmitrievsky:

Redes de propagação focalizadas com atrasos de tempo

No reconhecimento estrutural de pattem, é comum o uso de redes neurais estáticas. Por outro lado, o reconhecimento de pattem temporal requer o processamento de imagens que mudam ao longo do tempo e a geração de uma resposta num determinado momento que depende não só da corrente, mas também de vários valores anteriores.

Existe tal coisa? :) Exatamente o tipo de tais arquiteturas funcionarão no Forex, em teoria... mas você tem que experimentar. É fácil de fazer, basta adicionar alguns neurónios "interessantes" ao MLP, ou ligar 2 modelos.

Onde você consegue o modelo?
 
Yuriy Asaulenko:
Onde você consegue o modelo?

Ainda não acabei de ler, há muitas coisas interessantes nos livros, como acontece.

Mas a ideia de "memória" para os mercados deve ser boa... mas não uma recorrência super lenta, mas algo mais simples e mais especializado.

 

O exemplo mais simples:

Por um "shifter" externo podemos significar, por exemplo, alguns f-f- de ordens anteriores, volatilidade, ou alguns outros hiperparâmetros do sistema

Mas seria melhor se o shifter fosse incorporado em 1 ou mais neurónios, então tornar-se-ia como se fosse não-linear

 

Não espere que apareça um novo tipo de pacote de neurónios ou píton que resolva todos os problemas - e não haverá sobreposição de modelos, e não terá medo da não-estacionariedade, etc.

Por mais extravagante que o modelo seja, ele se baseará em um princípio simples - ele leva dados para treinamento preparados por um humano, e o modelo apenas cria uma descrição simplificada de como calcular o resultado a partir dos dados de entrada. Isto não está muito longe da previsão do vizinho mais próximo, mas os modelos convencionais prevêem ordens de magnitude mais rápidas (embora demorem muito tempo a aprender), por isso são mais apreciados.

A frase-chave é "dados humanos treinados". Se o especialista preparar corretamente os dados, então você os usará para treinar o modelo e comercializar de forma lucrativa, procure por exemplo aquelas tabelas para treinamento e testes que foram compartilhadas pela SanSanych, Vizard, Michael.
Fico espantado quando olho para eles. E nenhuma neurônica rnn incrível com filtros de entrada não-lineares e dezenas de camadas fará isso por você.

 
Dr. Trader:

Não espere que apareça um novo tipo de pacote de neurónios ou píton que resolva todos os problemas - e não haverá sobreposição de modelos, e não terá medo da não-estacionariedade, etc.

Por mais extravagante que o modelo seja, ele se baseará em um princípio simples - ele leva dados para treinamento preparados por um humano, e o modelo apenas cria uma descrição simplificada de como calcular o resultado a partir dos dados de entrada. Tudo isto não está longe da previsão do vizinho mais próximo, mas os modelos habituais prevêem ordens de magnitude mais rápidas (embora demore muito tempo a treinar), pelo que são mais apreciadas.

A frase-chave é "dados para aprendizagem preparados pelo homem". Se o Expert Advisor preparar corretamente os dados, então você os usará para ensinar o modelo e negociar lucrativamente. Tome por exemplo aquelas tabelas para treinamento e testes que foram postadas pelo SanSanych, Vizard, Michael.
Fico espantado quando olho para eles. E nenhuma neurônica rnn incrível com filtros de entrada não-lineares e dezenas de camadas fará isso por você.


Infelizmente (talvez só para mim), a maior parte do que é discutido aqui é neurostática. Precisa realmente de dados muito bem preparados, cujas propriedades estatísticas não mudam com o tempo, daí tantas formas diferentes de selecionar e filtrar os preditores. Eu acho esta abordagem muito difícil devido ao pré-processamento.

Mas podemos olhar para a neurodinâmica com diferentes variantes de "memória" e coisas adaptativas... parece-me uma abordagem mais simples e natural, e não tenho a certeza sobre a eficiência, depende de como fazê-lo.

Depende do ponto de vista do mercado - como um conjunto de padrões ou como um sistema que evolui de acordo com certas leis.

 
Maxim Dmitrievsky:

Mas você poderia olhar para a neurodinâmica com diferentes variantes de "memória" e coisas adaptativas... parece-me uma abordagem mais simples e natural, e não tenho certeza sobre a eficiência, depende de como você faz isso.
...
evoluindo de acordo com certas leis.
...

Precisa de ser estudado, sem dúvida. Mas a humanidade ainda não inventou uma ferramenta adequada (pelo menos não no domínio público).

Os neurônios lstm são bastante interessantes para este tópico, eles podem descrever séries temporais com mais precisão do que os neurônios usuais, usando menos neurônios. Mas o problema com eles é o excesso de equipamento.
Suponha que treinando neurônios regulares você pode extrair alguns dados para validação cruzada, e assim lidar com a superalimentação. Mas para os neurónios lstm é importante a ordem de chegada dos dados, cada nova previsão usa o estado de neurónios internos e altera-os. Como resultado, toda a série temporal é prevista em ordem estrita, cada previsão depende do passado e afeta o futuro. Se alguns exemplos forem retirados aleatoriamente para uso posterior na validação cruzada, a seqüência é quebrada, o que é ruim e coloca em questão todo o treinamento. Se dividirmos os dados em duas partes seqüencialmente para treinamento e teste - nós nos ajustamos novamente porque isso não ajuda em forex.
Tudo o que se pode fazer é treinar a lstm com a máxima precisão e esperança. Mas o forex não perdoa tal irresponsabilidade.

Quando este problema for resolvido, será possível criar um graal.

 

MQL por si só não é mau nem bom. Está próximo de C++ em sintaxe. Em geral, é uma língua padrão. O problema está na disponibilidade das bibliotecas necessárias para isso. Mas eles ou estão ausentes ou são de má qualidade. É por isso que temos de integrar o Python. Já citei um link para a sua integração com a MQL. Vou dar-te mais uma. A biblioteca está agora bastante utilizável. Você pode fazer o download agora.

 
Dr. Trader:

Isto precisa de ser estudado, sem dúvida. Mas a humanidade ainda não inventou uma ferramenta adequada (pelo menos não no domínio público).

Os neurônios lstm são bastante interessantes para este tópico, eles podem descrever séries temporais com mais precisão do que os neurônios usuais, usando menos neurônios. Mas o problema com eles é o excesso de roupa.
Suponha que treinando neurônios regulares você pode extrair alguns dados para validação cruzada, e assim lidar com a superalimentação. Mas para os neurónios lstm é importante a ordem de chegada dos dados, cada nova previsão usa o estado de neurónios internos e altera-os. Como resultado, toda a série temporal é prevista em ordem estrita, cada previsão depende do passado e afeta o futuro. Se alguns exemplos forem retirados aleatoriamente para uso posterior na validação cruzada, a seqüência é quebrada, o que é ruim e coloca em questão todo o treinamento. Se dividirmos os dados em duas partes seqüencialmente para treinamento e teste - nós nos ajustamos novamente porque isso não ajuda em forex.
Tudo o que se pode fazer é treinar a lstm com a máxima precisão e esperança. Mas forex não vai perdoar tal irresponsabilidade.

São necessários anos de trabalho acadêmico sobre o tema dos neurônios superiores da lstm, quando este problema for resolvido então poderemos começar a criar o graal.


você precisa de um ns que brinque consigo mesmo em forex :) não é lstm. lstm não usa BP como um agente externo que chuta na testa quando ele comete um erro

O Yuri já escreveu sobre isso, só para resumir.

 
Grigoriy Chaunin:

MQL por si só não é mau nem bom. Está próximo de C++ em sintaxe. Em geral, é uma língua padrão. O problema está na disponibilidade das bibliotecas necessárias para isso. Mas ou estão em falta ou são de má qualidade. É por isso que temos de integrar o Python. Já citei um link para a sua integração com a MQL. Vou dar-te mais uma. A biblioteca está agora bastante utilizável. Descarrega-o.


Obrigado pelo esforço! Vamos usá-lo mais tarde, guardei-o para mim.

 

Não consigo dormir - fiz uma pequena leitura na internet. Eu gostei deste:

"O fato de que os incrementos são utilizados não é tão ruim em termos gerais, a maioria dos preços logarítmicos são alimentados com o insumo, os incrementos são um passo à frente, embora ambos sejam adequados.

Conheço pessoas que tiraram o graal da NS, mas esses caras são tão fechados para a comunicação e até dicas sobre o que fazem, sou um novato tão certo de que não tenho chance. Eu sei apenas que tudo é complicado, não é Vels, nem Metatrader e até mesmo S#, e C++ e MatLab com alguns chips que decodificam e interpretam dados vindos de caliders, acabou que esta é uma e a mesma metodologia, eu ouvi e me assustei, eles estão trabalhando com o tio que costumava moer terabytes por dia no CERN procurando por novas partículas no caos quântico.

Isso é engraçado. Mantenho a minha opinião - é necessário alimentar os mais puros, como uma lágrima, aumentos de preço para o insumo NS. São os incrementos que são a chave para tudo. Eles formam a base da solução para este problema. Na verdade, no Forex seguimos um processo pseudo-estacionário de movimento de um pacote wave ( função de densidade de probabilidade) desses incrementos. E nada mais. (Eu já escrevi este parágrafo :)))

Razão: