Como formar os valores de entrada para os NS corretamente. - página 11

 
LeoV писал (а) >>

Os valores de entrada também não são uma questão simples. O que fornecer para a entrada principal depende de muitos fatores -

1. Que tipo de rede neural é utilizada.

2. O que queremos obter da rede neural - preço ou direção de movimento ou pontos de inversão ou a próxima vela ou outra coisa.

Portanto, devemos primeiro decidir sobre estas questões e depois decidir sobre os insumos.

Sugiro falar até agora apenas sobre duas redes

1. Rede Kohonen

2. MLP.


Deixaremos o resto para mais tarde.
 

1. A rede neural é convencional de 4-5 camadas (propagação direta sem anéis, estrelas ou qualquer outra coisa).

2. Da rede neural, queremos obter bolhas. Oh não. Para começar, queremos receber a direção do movimento e, se possível, uma estimativa de sua força (mais ou menos em pips).

Para mim até agora (de acordo com meu entendimento) o neurônio continua sendo um aproximador. O que significa que estou realmente tentando expressar uma relação funcional entre as variáveis de entrada e as variáveis de saída. E daí meus pensamentos sobre os insumos. Eles não devem ser muito complexos e não devemos querer muito na produção. É mais ou menos claro com as saídas (direção, altitude), mas o que é para a entrada. Estou me empurrando para o terceiro dia. É muito frustrante que eu não possa inventar tal tratamento do sinal de entrada para que ele esteja sempre em uma faixa fixa. Pois se normalizarmos ao máximo a amostra total, há sempre a possibilidade de que um valor maior apareça no futuro, o que a rede não saberá e o que acontecerá em tal caso eu não sei. É claro que existem variantes de processamento de entrada como senoidal ou sigmóide, mas me parece errado, porque quero ter compressão linear .

Para a saída, provavelmente usarei a dependência hiperbólica. (Up-Dn)/(Up+Dn). A Turquia está anexada.

Arquivos anexados:
_target.mq4  2 kb
 
TheXpert писал (а) >>

Proponho falar sobre apenas duas redes, por enquanto.

1. Rede Kohonen

2. AN MLP


O que é MLP - Multicamadas perseptron?

Kohonen é karachno. Mas provavelmente pela segunda vez. Embora... não haveria problema em entender o quê e onde.

A propósito, Kohonen está ensinando sem um professor, não é mesmo?

 
sergeev писал (а) >>

O que é um MLP - perseptron de várias camadas?

Sim

A propósito, Kohonen está aprendendo sem um professor, certo?

Na versão original, sim. Mas há uma modificação chamada Kohonen supervisionado, em cujo caso nós mesmos atribuímos um vencedor para cada padrão.

 
Então, o que dizer dos insumos. Quem tem quais redes e insumos?
 
sergeev писал (а) >>

2. A partir da rede neural queremos obter ba... Oh não. Para começar, queremos obter a direção do movimento e, se possível, uma estimativa de sua força (como em pips).

Não tem que ser melhor, apenas a direção é suficiente. Se funcionar, a energia pode ser parafusada em cima.

Até agora, para mim (em meus termos) a rede neural continua sendo uma aproximação.

Sim, é assim que as coisas são.

O que significa que estou realmente tentando expressar uma relação funcional entre as variáveis de entrada e as variáveis de saída. E daí meus pensamentos sobre os insumos. Eles não devem ser muito complexos e não devemos querer muito na produção. É mais ou menos claro com as saídas (direção, altitude), mas o que é para a entrada. Estou me empurrando para o terceiro dia. É frustrante, porém, que eu não consiga pensar em nenhuma maneira de processar o sinal de entrada para que ele esteja sempre em uma faixa fixa.

MACD

É claro que existem variantes de processamento de entrada, tais como pecados ou sigmóides, mas tudo isso me parece errado, porque eu quero ter compressão linear .

Aqui. A tarefa aqui não é compressão, mas divisão, portanto não é compressão linear, mas divisão linear que nem mesmo XOR será capaz de dividir.

Portanto, a não-linearidade deve estar presente. Há um teorema de que qualquer perseptron linear de n camadas pode ser convertido em um análogo de 2 camadas -- entrada -> saída.

Assim, o perseptron linear é parafusado.

 
sergeev писал (а) >>
Então, o que dizer dos insumos. Quem tem quais redes e insumos?

Tentando alimentar osciladores limitados, mas os resultados são até o céu. Há uma enorme quantidade de trabalho a ser feito para se chegar a qualquer conclusão.

 
TheXpert писал (а) >>

MACD

Ele pode ter uma atualização máxima.

Aqui. O problema não é a compressão, mas a separação, portanto o resultado não é a compressão linear, mas a separação linear, que nem mesmo XOR pode separar.

Portanto, a não-linearidade deve estar presente. Há um teorema de que qualquer perseptron linear de n camadas pode ser convertido em um análogo de 2 camadas -- entrada -> saída.

O que se entende não é a linearidade dos sinais de saída. Trata-se de comprimir linearmente os dados de entrada antes de alimentá-los na rede. Compressão para a faixa [0,1] com base em todos os dados de órbitas. Se houver uma conversão para a faixa por alguma função não linear, então obteremos uma saturação para grandes valores, entre os quais não haverá diferença. Isto significa que haverá repetibilidade e , portanto, incoerência . A compressão tem que ser feita de forma linear. Mas como, para que permaneça o máximo no futuro. (meu cérebro sibila)?

 
sergeev писал (а) >>

pode ter uma atualização máxima.

Sim, claro, mas isso me soa como uma boa opção.

O que se entende não é a linearidade dos sinais de saída. Trata-se de comprimir linearmente os dados de entrada antes de alimentá-los na rede. Compressão ao intervalo [0,1] com base em todos os dados de órbitas.

>> Ah, estou vendo.

 
sergeev писал (а) >>

Se houver uma conversão para uma faixa por alguma função não linear, obteremos uma saturação para grandes valores, entre os quais não haverá diferença. Isto significa que haverá repetibilidade e , portanto, incoerência . A compressão tem que ser feita de forma linear. Mas como, para que permaneça o máximo no futuro. (meu cérebro sibila)?


É por isso que usaremos a decoração e os % semelhantes)

Razão: