Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 373

 
elibrarius:
Trecho do artigo de Reshetov que explica como funciona o seu RNNN.

"Este documento discute em detalhes o problema do supertreinamento da rede neural, identifica suas causas e propõe uma maneira de resolver o problema.

1. Porque é que uma rede neural é requalificada?

Qual é a razão para o re-treinamento da rede neural? Na verdade, pode haver várias razões para isso:
  1. O número de exemplos em uma amostra de treinamento não é suficiente para resolver problemas fora da amostra.
  2. Os dados de entrada são desigualmente distribuídos pelo grau de correlação com os dados de saída em diferentes amostras, o que é muito frequentemente o caso quando se processam dados não estacionários. Por exemplo, em uma amostra de treinamento, a correlação de qualquer parâmetro de entrada ou vários parâmetros de entrada com relação aos valores de saída é significativamente maior do que em uma amostra de teste, ou pior, os coeficientes de correlação em diferentes amostras diferem em sinal. Isto pode ser facilmente verificado calculando coeficientes de correlação para todos os parâmetros em diferentes amostras antes de treinar a rede neural. E para se livrar deste inconveniente também é bastante simples - os exemplos de treino são distribuídos entre amostras aleatoriamente.
  3. Os parâmetros de entrada não estão relacionados aos parâmetros de saída, ou seja, não há relação causa-efeito entre eles - eles não são representativos e, portanto, não há nada para treinar a rede neural. E a verificação de correlações entre os dados de entrada e saída mostrará uma correlação próxima a zero. Neste caso, você precisa procurar outros dados de entrada para treinar a rede neural.
  4. Os dados de entrada estão altamente correlacionados uns com os outros. Neste caso, você deve deixar os dados de entrada com a correlação máxima com os dados de saída, removendo os outros dados que se correlacionam bem com os dados restantes.
Todas as razões acima mencionadas para o excesso de treinamento e os métodos para eliminá-las são de conhecimento comum, como já foram descritas anteriormente em várias literaturas ou artigos sobre tecnologia de redes neurais. "


Só que não é uma rede neural no sentido pleno da palavra, mas um classificador ) É por isso que não é retrabalhada, mas os parâmetros são ajustados no otimizador. Nada impede de usar também a rede neural no otimizador, com diferentes números de camadas e diferentes períodos de características e até mesmo o seu número, seria ainda melhor.

Leia mais aqui, há todo um quadro até https://www.mql5.com/ru/articles/3264

Наивный байесовский классификатор для сигналов набора индикаторов
Наивный байесовский классификатор для сигналов набора индикаторов
  • 2017.05.12
  • Stanislav Korotky
  • www.mql5.com
В статье анализируется применение формулы Байеса для повышения надежности торговых систем за счет использования сигналов нескольких независимых индикаторов. Теоретические расчеты проверяются с помощью простого универсального эксперта, настраиваемого для работы с произвольными индикаторами.
 
Oleg avtomat:

Bendat J., Pearsol A.

Análise Aleatória de Dados Aplicada: Traduzido do inglês: World, 1989.

Para dentro. 126

EXEMPLO 5.4. VARIÁVEIS ALEATÓRIAS DEPENDENTES NÃO CORRELACIONADAS.



Duas variáveis aleatórias X e Y são chamadas decorrelacionadas se o seu momento de correlação (ou coeficiente de correlação, que é a mesma coisa) for diferente de zero; X e Y são chamadas de não correlacionadas se o seu momento de correlação for zero.
Duas quantidades correlacionadas também são dependentes. De facto, supondo o contrário, temos de concluir que µxy=0, o que contradiz a condição desde
para as quantidades correlatas µxy ≠ 0.
A hipótese inversa nem sempre é verdadeira, ou seja, se duas variáveis são dependentes, elas podem estar correlacionadas ou não correlacionadas. Em outras palavras, o momento de correlação de duas variáveis dependentes pode não ser igual a zero, mas também pode ser igual a zero.


Assim, a correlação entre duas variáveis aleatórias implica que elas são dependentes, mas a correlação não implica necessariamente correlação. A independência de duas variáveis implica que elas não estão relacionadas, mas a independência ainda não pode ser inferida a partir da não correlação.

http://www.uchimatchast.ru/teory/stat/korell_zavis.php

Задачи оптимизации/ Статистика / Корреляция /Коррелированность и зависимость
Задачи оптимизации/ Статистика / Корреляция /Коррелированность и зависимость
  • www.uchimatchast.ru
Главная|Решения онлайн |Теория | Основные формулы и обозначения |Обратная связь | Корреллированность и зависимость случайных величин Две случайные величины X и У называют коррелированными, если их корреляционный момент (или, что то же, коэффициент корреляции) отличен от нуля; X и У называют некоррелированными величинами, если их...
 
Dimitri:


1. ninguém está a analisar a correlação - trata-se da escolha dos preditores.

2. você repetiu meu ponto três páginas antes -"Dependência é um caso especial de correlação. Se duas variáveis são dependentes, então há definitivamente uma correlação. Se há correlação, então não há necessariamente dependência".

3. a centralidade cruzada, tal como a correlação, não dará uma resposta pela presença de dependência funcional.


Foi aí que eu me enganei - admito.

Se as variáveis aleatórias são independentes, elas também não estão relacionadas, mas não se pode inferir independência da não correlação.

Se duas variáveis são dependentes, elas podem estar correlacionadas ou não correlacionadas.

 
Maxim Dmitrievsky:


Só que não é uma rede neural no sentido pleno da palavra, mas um classificador ) É por isso que não é retrabalhada, mas os parâmetros são ajustados no otimizador. Nada impede de usar também a rede neural no otimizador, com diferentes números de camadas e diferentes períodos de características e até mesmo o seu número, seria ainda melhor.

leia mais aqui, há todo um quadro até https://www.mql5.com/ru/articles/3264

Esta citação refere-se exatamente às redes neurais no sentido pleno da palavra, e são esses problemas que ele está tentando resolver em seu RNN. Não se trata do RNN, mas do fato de que a correlação input-output é importante, e a correlação de inputs entre si é prejudicial, e eu acho que isso pode ser aplicado a NS e RNN convencionais, e a EAs convencionais também.
 
elibrarius:
A citação acima refere-se exatamente às redes neurais no sentido pleno da palavra, e estes são os problemas que ele está tentando resolver em seu RNN

Sim, e eles são resolvidos simplesmente enumerando todos os parâmetros possíveis e comparando-os com o futuro... exatamente a mesma coisa pode ser feita com NS. O seu RNN é re-treinado da mesma forma, apenas escolhemos os parâmetros mais estáveis comparando o backtest com o forward... tudo é exactamente igual ao NS, apenas no caso do NS precisamos de escolher não os pesos mas sim os inputs-outputs no optimizador.
 
Dimitri:

Se duas quantidades forem dependentes, elas podem estar correlacionadas ou não correlacionadas.

Finalmente você conseguiu)))) A correlação apenas dá dependência linear e NS não tem nada a ver com isso, também não confunda "correlação para regressão não linear" e "correlação não linear", a correlação é:

Tudo o resto é alternativa e humanitarismo.

 
Alyosha:
Finalmente você conseguiu)))) A correlação apenas dá dependência linear e NS não tem nada a ver com isso, também não confunda "correlação para regressão não linear" e "correlação não linear", correlação que é:

Tudo o resto é alternativo e humanitário.


Mais uma vez, quarenta e cinco....

Que pessoa estranha você é - acima do seu post dois posts preto e branco diz que a presença ou ausência de correlação não significa que haja correlação alguma e novamente a correlação "dá" algo para alguém.

Estou a ficar com as mãos em baixo....

 
Dimitri:


Novamente - quarenta vezes....

Que pessoa estranha você é - acima do seu post dois posts preto e branco diz que a presença ou ausência de correlação não significa correlação alguma e novamente a correlação "dá" algo para alguém.

Estou a ficar um pouco em baixo nas minhas mãos....


Você argumentou isso:

Dimitri:


Todos os MO se baseiam no fato de que as variáveis de entrada devecorrelacionar com a variável de saída.

Caso contrário, não faz sentido em TODOS os modelos MO.

Em Data Mining, em TODOS OS MODELOS VARIAVELMENTE VARIAVELMENTE VARIAVELMENTE SELECÇÃO, o mecanismo de correlação máxima de variável de entrada e variável de saída é implementado:

Então eles estragaram tudo em grande, envergonharam-se.


SZZ "a presença ou ausência de correlação não significa correlação alguma" - mais uma vez - disparate. A correlação é exatamente o que mostra a presença de uma FIABILIDADE LINEAR, mas há outras não lineares que a correlação não mostra.

 
Aliosha:


Você disse isso:

Ou seja, eles foderam tudo, envergonharam-se.


ZS "a presença ou ausência de correlação não significa dependência de forma alguma" - mais uma vez - um disparate. Correlação é exatamente o que mostra uma dependência linear, mas há outras não lineares que a correlação não mostra.


Eu gosto quando alguém rola cientificamente alguém :))
 
Aliosha:


ZS "a presença ou ausência de correlação não significa dependência de forma alguma" - mais uma vez - um disparate. A correlação mostra uma dependência linear, mas há outras não lineares que não mostram correlação.

Há um exemplo clássico de uma falsa correlação - o número de pessoas que se afogam em piscinas americanas está direta e fortemente correlacionado com o número de filmes estrelados por Nicolas Cage.

Existe uma correlação - onde está a GRANDE correlação?

Razão: