Utilização de redes neurais no comércio. - página 12

 
registred >> :

... O que, ninguém jamais resolveu o problema das redes neurais em forex?

Por que ninguém?

Aqueles que decidiram, fiquem calados :)

1.

2.

E o resto tem que trabalhar com neurônios protéicos :(

 
goldtrader >> :

Por que ninguém?

Aqueles que tomaram uma decisão, fiquem calados :)

1.

2.

E o resto tem que trabalhar com neurônios protéicos :(

Portanto, o que você está discutindo aqui é inútil, na verdade... Eu pessoalmente não usei a neurônica no mercado de câmbio, eu já lidei com eles em outros assuntos. Eu gostaria de experimentá-los para o comércio, por assim dizer, mas ainda não tenho tempo. É por isso que eu não posso dizer nada em relação ao Forex. O treinamento de uma rede é uma coisa muito complexa. Quero dizer que muitas vezes é muito difícil encontrar uma generalização qualitativa, é claro, devemos realizar muitos experimentos aumentando o número de neurônios na camada oculta, aumentando o tamanho da amostra, ver como a rede está presa em um mínimo local raso e tentar tirá-la de lá. E depois de tudo isso, pode acontecer que nada aconteça. Em geral, elas são de fato muitas dificuldades.

 
registred >> :

Portanto, o que você está discutindo aqui é inútil, acontece realmente...

Em meu posto acima, sob os números 1 e 2, há links que você não seguiu, a julgar por sua resposta.

Os conselheiros da rede neural estão negociando lá.

NS não é a ferramenta mais fácil de se obter lucros nos mercados financeiros, mas funciona bem nas mãos certas.

 
goldtrader >> :

Em meu posto acima, sob os números 1 e 2, há links que você não seguiu, a julgar por sua resposta.

É lá que os conselheiros da rede neural estão negociando.

NS não é a ferramenta mais fácil de se obter lucro nos mercados financeiros, mas funciona bem em mãos habilidosas.

Eu estava, muitas vezes ando por aí em euroflood. Eu tenho meus próprios sistemas de previsão, eles não se baseiam em redes neurais. Na verdade, as redes neurais são apenas um tópico interessante. Sei aproximadamente o que exigiria de uma rede, é que, como eu disse, ainda não tenho tempo para toda essa programação. Ainda mais, estou feliz com meu sistema até agora. A dificuldade está na criação de toda esta rede neural. Como eu disse, leva muito tempo para aprender. Eu aplicaria outras coisas além do método de otimização gradiente.

 
registred писал(а) >>

Eu aplicaria outras coisas além do método de otimização gradiente.

Se não for um segredo, qual deles?

 
registred писал(а) >> O treinamento em rede é uma coisa muito complicada. Você pode fazer uma rede supertreinada, subtreinada, ou seja, muitas vezes é difícil encontrar uma generalização qualitativa, você tem que fazer muitos experimentos aumentando o número de neurônios em uma camada oculta, aumentando o tamanho da própria amostra, ver como a rede entra em um mínimo local raso e tentar tirá-la de lá. E depois de tudo isso, pode acontecer que nada aconteça. Em geral, há realmente muita complexidade com eles.

Isto é praticamente uma coisa fundamental para as redes neurais. Tentei levantar este problema, mas, ao que parece, não há muitas pessoas interessadas nele. Mais interessado na arquitetura e na sofisticação das redes neurais, embora apenas esta questão tenha sido resolvida há muito tempo e, ao que parece, não faz sentido persegui-la. O aumento de neurônios em uma camada oculta leva ao aumento do tamanho da amostra - o aumento do tamanho da amostra leva ao subtreinamento da rede, uma vez que mais amostras históricas contêm demasiadas regras que a rede não consegue entender e aprender. Como resultado, ele fica preso em algum mínimo local do qual é impossível sair - ou é sobre-aprendizagem ou sub-aprendizagem. É mais provável que seja supertreinamento. Como resultado, o aumento do número de neurônios afeta negativamente a operação da rede neural no futuro.

 
LeoV писал(а) >>

Isto é praticamente uma coisa fundamental para as redes neurais. Tentei levantar este problema, mas, ao que parece, não há muitas pessoas interessadas nele. Mais interessado na arquitetura e na sofisticação das redes neurais, embora apenas esta questão tenha sido resolvida há muito tempo e, ao que parece, não faz sentido persegui-la. O aumento de neurônios em uma camada oculta leva ao aumento do tamanho da amostra - o aumento do tamanho da amostra leva ao sub-treinamento da rede, pois há muitas regras sobre amostras históricas maiores que a rede não consegue entender e aprender. Como resultado, ele fica preso em algum mínimo local do qual é impossível sair - ou é sobre-aprendizagem ou sub-aprendizagem. O sobre-aprendizado é mais provável. Como resultado, o aumento do número de neurônios afeta negativamente a operação dos neurônios no futuro.

Como um profissional experiente, você chegou aos limites? Qual é, em sua opinião, o tamanho ideal do conjunto de treinamento, estrutura e número de entradas?

 
StatBars >> :

Se não é um segredo, qual é?

Se você tomar redes neurais, as redes neurais de aproximação do núcleo são melhores, elas aprendem rapidamente.

 
LeoV >> :

Isto é praticamente uma coisa fundamental para as redes neurais. Tentei levantar este problema, mas, ao que parece, não há muitas pessoas interessadas nele. Mais interessado na arquitetura e na sofisticação das redes neurais, embora apenas esta questão tenha sido resolvida há muito tempo e, ao que parece, não faz sentido persegui-la. O aumento de neurônios em uma camada oculta leva ao aumento do tamanho da amostra - o aumento do tamanho da amostra leva ao subtreinamento da rede, uma vez que mais amostras históricas contêm demasiadas regras que a rede não consegue entender e aprender. Como resultado, ele fica preso em algum mínimo local do qual é impossível sair - ou é sobre-aprendizagem ou sub-aprendizagem. É mais provável que seja supertreinamento. Como resultado, o aumento do número de neurônios afeta negativamente a operação da rede neural no futuro.

A rede quase sempre encontra um mínimo local, geralmente é suficientemente profunda e minimamente necessária para resolver uma determinada tarefa. Quanto à camada oculta, tudo depende da dimensionalidade dos parâmetros de entrada, que representam essencialmente a complexidade de um problema a ser resolvido. Ou seja, pode não haver neurônios suficientes na camada oculta, ou pode não haver exemplos suficientes para uma dada dimensionalidade de insumos. Em uma palavra, é necessário realizar testes, aumentando gradualmente o número de neurônios na camada oculta do 1º neurônio e assim por diante, até que o erro de generalização necessário seja alcançado.

 

Suponha que tenhamos alguma dependência de um único parâmetro, como y(x)=F(x), onde a forma geral desta dependência F é desconhecida para nós e que gera a série de preços, ou melhor, a dependência do incremento de preços esperado na leitura de alguns de nossos indicadores. Nesta situação podemos assumir que a dependência é linear, por exemplo, e conhecendo vários valores anteriores dos incrementos de preço y[i] e leituras dos indicadores x[i], podemos facilmente resolver o problema da busca da aproximação linear ótima (no sentido do menor desvio) da lei desconhecida F pelo polinômio de primeiro grau y(x)=a*x+b . Então, os coeficientes a e b são pesquisados pelo método dos mínimos quadrados e são iguais:

Podemos ir mais longe, e aproximar a dependência desconhecida (lei) por um polinômio de segundo grau y(x)=a2*x^2+a1*x+a0 ou mesmo nth! Mas tudo isso é para a função de uma variável ou, no nosso caso, de um indicador. Se esperamos usar dois indicadores, já é mais difícil obter uma solução analítica para aproximação dos dados de entrada por plano (função de duas variáveis), e não podemos mais encontrar expressão analítica para a superfície da n-ésima ordem mais próxima de F(x1,x2) no caso de um grau crescente de polinômio. Mas este problema é facilmente resolvido pela NS com duas entradas x1,x2, uma camada oculta e neurônios suficientes dentro dela. Além disso, aumentamos o número de insumos para 10-20 e temos uma superfície de ordem arbitrária em espaço de características 10-20-dimensional - é um sonho!

Na verdade, nossa percepção do mundo ao redor se baseia no mesmo princípio - inconscientemente construímos algumas superfícies de gipper em nossa cabeça, que refletem a realidade - nossa experiência de forma otimizada. Cada ponto nessa superfície imaginária é uma decisão responsável em uma ou outra situação de vida, nem sempre precisa, mas quase sempre ótima...

Certo! estou me deixando levar um pouco. Em resumo, é difícil, se não impossível, pensar em algo melhor do que o Neuronka para a análise de preços, bem, exceto para informações privilegiadas.

Razão: