O que alimentar a entrada da rede neural? Suas ideias... - página 69
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Se não fosse pelo dumas, eu estaria perdendo meu tempo com o deus MO Gizlyk agora mesmo :)
m oskitman #:
Mais ou menos como a borra de café do século XXI
Em geral, sim, mas ele não desiste. Você está sentado lá, desmontando o TC manual de alguém, e então: "Cara, da última vez eu não tentei isso e aquilo" - e aqui novamente.
F orester #: Com árvores, isso é resolvido por divisões - apenas folhas com valor de preditor < 0,1 e > 0,5 não produzirão sinais.
Não estou conseguindo chegar até elas.
M axim Kuznetsov#:
alguém tem alguma coisa sobre NN e DL? pelo menos alguém aqui...
---
bem, exceto gráficos em python e testes ajustados:-) Pelo menos "EA negocia em demo e plus".
---
ou há a sensação de que esse é um ramo sem saída da evolução e que todo o resultado do mashobuch e dos neurônios está em publicidade, spam e "mutual_sending".
Mas uma negociação suave, para que você possa ir ao mercado - ainda não.
Se não fosse pelos dumdums, eu estaria perdendo meu tempo com o deus do MO, Gizlyk, agora mesmo :)
Pensar é ruim para o seu corpo, pegue emprestada a experiência ))
Pensar é ruim para seu corpo, por experiência própria ))
Também é verdade
A entradanão é a intensidade do sinal
Sua força é dada a ele por pesos. Mas o número de entrada em si, a priori, já (!) carrega um elemento de potência - seu fator quantitativo.Anteriormente, levantei o problema de entender os dados de entrada. Ao atribuir um número à entrada, já a dotamos inicialmente de um valor de força. Isso é um erro, pois a essência do nosso NS é apenas encontrar o fator de potência e distribuí-lo entre os inputs.
Não entendi muito bem, você está ensinando com um professor?
Aessência do problema teórico se resume ao seguinte:se o intervalo de entrada for de 0 a 1, o NS nunca encontrará o graal se os padrões de drenagem no intervalo superior estiverem enterrados nos números do intervalo inferior, porque ele terá que "sufocar" o superior e, com pesos estáticos, tudo o que for inferior também será sacrificado.
Como resultado, o somador obterá um número que consiste nos dados de drenagem e nos dados de trabalho - 50/50.
Ese o intervalo de entrada for de -1 a 1 e o graal estiver em algum lugar no meio, acontecerá a mesma coisa: o NS abafará os extremos e o graal será lavado.Mas se você criar um módulo de filtragem, quando o número 0,9 se "transformar" em 0,01 ou em 0.
Eo número 0,63 se transformará em 0,99 e assim por diante - presumo que esse método seja, no mínimo, melhor do que o padrão e, no máximo, potencial. E esses números já devem ser enviados ao NS, que criará regras para trabalhar com dados de entrada "limpos" de ruído .
Aessência do problema teórico se resume ao seguinte:se o intervalo de entrada for de 0 a 1, o NS nunca encontrará o graal nos padrões de drenagem no intervalo superior se ele estiver enterrado nos números do intervalo inferior, porque ele terá que "sufocar" o superior e, em pesos estáticos, tudo o que for inferior também será cortado.
Como resultado, o somador obterá um número que consiste tanto em dados de dreno quanto em dados de trabalho - 50/50 e assim por diante.
Ese o intervalo de entrada for de -1 a 1 e o graal estiver em algum lugar no meio, acontecerá a mesma coisa: o NS abafará os extremos e o graal será lavado.Mas se você criar um módulo de filtragem, quando o número 0,9 se "transformará" em 0,01 ou em 0.
Eo número 0,63 se transformará em 0,99 e assim por diante - presumo que esse método seja, no mínimo, melhor do que o padrão e, no máximo, potencial. E esses números já devem ser enviados ao NS, que criará regras para trabalhar com dados de entrada "limpos" de ruído .
Sim... acho que estou entendendo do que você está falando (corrija-me se estiver errado). Um neurônio de um MLP convencional resume os produtos das entradas para ele e os pesos correspondentes, desloca a soma e, em seguida, transforma-a de forma não linear (o deslocamento é o mesmo para cada neurônio, independentemente dos sinais que chegam a ele). Ou seja, é impossível deslocar cada entrada para ele separadamente apenas de forma linear. Se a tarefa for corrigir os valores de entrada da rede, é possível aprimorar um pouco a MLP adicionando uma camada de correção adicional (sem função de ativação) entre a camada de entrada e a primeira camada oculta, cuja tarefa é apenas corrigir linearmente os valores da camada de entrada. Acontece que, para cada entrada da rede, seria necessário um peso extra e um deslocamento extra. Na verdade, apenas uma dessas camadas adicionais é necessária, e então tudo continua como sempre.
Interessante, não é difícil de implementar.
É claro que, se fosse sabido de antemão como os valores de entrada deveriam ser convertidos, eles os pegariam e converteriam como dois bytes a serem enviados, mas, se não for conhecido, essa camada adicional faz sentido.
IMLP -MLP aprimoradoSe o intervalo de entrada for de 0 a 1, o NS nunca encontrará o graal se os padrões de ameixa no intervalo superior estiverem enterrados nos números do intervalo inferior, porque ele terá que "bloquear" o superior e, com pesos estáticos, tudo o que for inferior também será atacado. Como resultado, o somador obterá um número que consiste em dados de ameixa e de trabalho - 50/50.
Seu problema é facilmente resolvido: divida cada ficha no número necessário de intervalos (3,5,10,50...) e alimente-os como fichas separadas. Cada faixa terá seus coeficientes ajustados individualmente.
Se você tiver um graal escondido no terço superior, ele será encontrado por essa ficha individual.
Sim... acho que entendi do que você está falando (corrija-me se estiver errado). Um neurônio de um MLP convencional soma os produtos das entradas para ele e os pesos correspondentes, desloca a soma e, em seguida, transforma-a de forma não linear (o deslocamento é o mesmo para cada neurônio, independentemente dos sinais que chegam a ele). Ou seja, é impossível deslocar cada entrada para ele separadamente apenas de forma linear. Se a tarefa for corrigir os valores de entrada da rede, é possível aprimorar um pouco a MLP adicionando uma camada de correção adicional (sem função de ativação) entre a camada de entrada e a primeira camada oculta, cuja tarefa é apenas corrigir linearmente os valores da camada de entrada. Acontece que, para cada entrada da rede, seria necessário um peso extra e um deslocamento extra. Na verdade, apenas uma dessas camadas adicionais é necessária, e então tudo continua como sempre.
Interessante, não é difícil de implementar.
É claro que, se fosse sabido de antemão como os valores de entrada deveriam ser convertidos, eles os pegariam e converteriam como dois bytes a serem enviados, mas, se não for conhecido, essa camada adicional faz sentido.
IMLP -MLP aprimoradoSim, esse é um tipo de filtragem A maneira mais fácil e também a mais eficiente: basta adicionar uma condição "if". Se N1 < IN < N2, então IN = Filter[i]; fiz isso dessa maneira com um loop
Se a entrada for alimentada com todos os tipos de limites de canal, que têm altas probabilidades de correções a partir dos limites, o intervalo poderá ser dividido em duas partes, uma das quais será ignorada (anulada) e a segunda será corrigida de forma mais intensa. Essa é a forma mais rápida de ajuste (retreinamento) possível.
Mas não, o Q-table vem em primeiro lugar e esse método vem em segundo. O MLP, por outro lado, é uma ferramenta muito... ferramenta muito específica para forex. Eu até acho que é uma ferramenta perturbadora.
F orester #:
Seu problema é facilmente resolvido: divida cada recurso no número necessário de intervalos (3,5,10,50...) e envie-os como recursos separados. Cada faixa terá seus coeficientes ajustados individualmente.
Se você tiver um graal escondido no terço superior, ele será encontrado por essa ficha individual.
Alguém aqui teve sorte com o NN e o DL?
---
com exceção dos gráficos em python e dos testes ajustados:-) Pelo menos "EA negocia em demo e plus".
---
ou há um sentimento de que esse é um ramo sem saída da evolução e toda a produção de mashobuch e neurônios está em publicidade, spam e "mutual_sending".
Acho que as dúvidas são infundadas. Não julgue o progresso por pitonisas falsas do Graal e veremos.