Como formar os valores de entrada para os NS corretamente. - página 11
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Os valores de entrada também não são uma questão simples. O que fornecer para a entrada principal depende de muitos fatores -
1. Que tipo de rede neural é utilizada.
2. O que queremos obter da rede neural - preço ou direção de movimento ou pontos de inversão ou a próxima vela ou outra coisa.
Portanto, devemos primeiro decidir sobre estas questões e depois decidir sobre os insumos.
Sugiro falar até agora apenas sobre duas redes
1. Rede Kohonen
2. MLP.
Deixaremos o resto para mais tarde.
1. A rede neural é convencional de 4-5 camadas (propagação direta sem anéis, estrelas ou qualquer outra coisa).
2. Da rede neural, queremos obter bolhas. Oh não. Para começar, queremos receber a direção do movimento e, se possível, uma estimativa de sua força (mais ou menos em pips).
Para mim até agora (de acordo com meu entendimento) o neurônio continua sendo um aproximador. O que significa que estou realmente tentando expressar uma relação funcional entre as variáveis de entrada e as variáveis de saída. E daí meus pensamentos sobre os insumos. Eles não devem ser muito complexos e não devemos querer muito na produção. É mais ou menos claro com as saídas (direção, altitude), mas o que é para a entrada. Estou me empurrando para o terceiro dia. É muito frustrante que eu não possa inventar tal tratamento do sinal de entrada para que ele esteja sempre em uma faixa fixa. Pois se normalizarmos ao máximo a amostra total, há sempre a possibilidade de que um valor maior apareça no futuro, o que a rede não saberá e o que acontecerá em tal caso eu não sei. É claro que existem variantes de processamento de entrada como senoidal ou sigmóide, mas me parece errado, porque quero ter compressão linear .
Para a saída, provavelmente usarei a dependência hiperbólica. (Up-Dn)/(Up+Dn). A Turquia está anexada.
Proponho falar sobre apenas duas redes, por enquanto.
1. Rede Kohonen
2. AN MLP
O que é MLP - Multicamadas perseptron?
Kohonen é karachno. Mas provavelmente pela segunda vez. Embora... não haveria problema em entender o quê e onde.
A propósito, Kohonen está ensinando sem um professor, não é mesmo?
O que é um MLP - perseptron de várias camadas?
Sim
A propósito, Kohonen está aprendendo sem um professor, certo?
Na versão original, sim. Mas há uma modificação chamada Kohonen supervisionado, em cujo caso nós mesmos atribuímos um vencedor para cada padrão.
2. A partir da rede neural queremos obter ba... Oh não. Para começar, queremos obter a direção do movimento e, se possível, uma estimativa de sua força (como em pips).
Não tem que ser melhor, apenas a direção é suficiente. Se funcionar, a energia pode ser parafusada em cima.
Até agora, para mim (em meus termos) a rede neural continua sendo uma aproximação.
Sim, é assim que as coisas são.
O que significa que estou realmente tentando expressar uma relação funcional entre as variáveis de entrada e as variáveis de saída. E daí meus pensamentos sobre os insumos. Eles não devem ser muito complexos e não devemos querer muito na produção. É mais ou menos claro com as saídas (direção, altitude), mas o que é para a entrada. Estou me empurrando para o terceiro dia. É frustrante, porém, que eu não consiga pensar em nenhuma maneira de processar o sinal de entrada para que ele esteja sempre em uma faixa fixa.
MACD
É claro que existem variantes de processamento de entrada, tais como pecados ou sigmóides, mas tudo isso me parece errado, porque eu quero ter compressão linear .
Aqui. A tarefa aqui não é compressão, mas divisão, portanto não é compressão linear, mas divisão linear que nem mesmo XOR será capaz de dividir.
Portanto, a não-linearidade deve estar presente. Há um teorema de que qualquer perseptron linear de n camadas pode ser convertido em um análogo de 2 camadas -- entrada -> saída.
Assim, o perseptron linear é parafusado.
Então, o que dizer dos insumos. Quem tem quais redes e insumos?
Tentando alimentar osciladores limitados, mas os resultados são até o céu. Há uma enorme quantidade de trabalho a ser feito para se chegar a qualquer conclusão.
MACD
Ele pode ter uma atualização máxima.
Aqui. O problema não é a compressão, mas a separação, portanto o resultado não é a compressão linear, mas a separação linear, que nem mesmo XOR pode separar.
Portanto, a não-linearidade deve estar presente. Há um teorema de que qualquer perseptron linear de n camadas pode ser convertido em um análogo de 2 camadas -- entrada -> saída.
O que se entende não é a linearidade dos sinais de saída. Trata-se de comprimir linearmente os dados de entrada antes de alimentá-los na rede. Compressão para a faixa [0,1] com base em todos os dados de órbitas. Se houver uma conversão para a faixa por alguma função não linear, então obteremos uma saturação para grandes valores, entre os quais não haverá diferença. Isto significa que haverá repetibilidade e , portanto, incoerência . A compressão tem que ser feita de forma linear. Mas como, para que permaneça o máximo no futuro. (meu cérebro sibila)?
pode ter uma atualização máxima.
Sim, claro, mas isso me soa como uma boa opção.
O que se entende não é a linearidade dos sinais de saída. Trata-se de comprimir linearmente os dados de entrada antes de alimentá-los na rede. Compressão ao intervalo [0,1] com base em todos os dados de órbitas.
>> Ah, estou vendo.
Se houver uma conversão para uma faixa por alguma função não linear, obteremos uma saturação para grandes valores, entre os quais não haverá diferença. Isto significa que haverá repetibilidade e , portanto, incoerência . A compressão tem que ser feita de forma linear. Mas como, para que permaneça o máximo no futuro. (meu cérebro sibila)?
É por isso que usaremos a decoração e os % semelhantes)