Redes neurais, como dominá-las, por onde começar? - página 12

 
Neutron >> :

Não importa como você gire o NS, não importa o que você coloque em seus insumos, certamente não há milagres!

Assim, o que obtemos: por um lado, quanto mais o NS é estratificado, maior é seu poder de previsão, mas não faz sentido construir mais de três camadas - a grade de três camadas já é um aproximador universal.

Em geral, não, eu não vou discutir - estou entediado.

Segue-se que quanto mais camadas o NS for, mais tempo a amostra de treinamento terá que ser usada para seu treinamento. Não apenas a complexidade do treinamento cresce como P^3, mas também podemos ficar sem dados!


É a segunda vez que eu vejo esse grau. Vamos fazer as contas.


Tomemos como exemplo uma rede m - n - k -- as letras representam o número de neurônios respectivamente na camada de entrada, oculta e de saída.

A complexidade da propagação do sinal é O(m*n + n*k) para sinapses totalmente acopladas.

A complexidade da propagação para trás é semelhante.

Agora vamos introduzir uma camada oculta adicional do mesmo tamanho.

A complexidade é O(m*n + n*n + n*k).

Tomemos a proporção -- obtemos (m + n + k)/(m + k).


Além disso, a introdução da 2ª camada oculta permite reduzir especificamente o tamanho da 1ª camada.

Para este fim, fiz três malhas - 1, 2 e 3 no Mathcad e comparei os resultados da previsão de um sinal de incrementos de cotier uma conta à frente (reuni estatísticas de 100 experimentos independentes). Os resultados são os seguintes:

1 - p=10% de sinais adivinhados corretamente (probabilidade=1/2+p).

2 - 15-16%

3 - 12%

Há alguns parâmetros livres aqui: dimensão da entrada e número de neurônios na(s) camada(s). O primeiro parâmetro foi o mesmo para todas as arquiteturas, o segundo foi escolhido pessoalmente. Vemos que a rede de 3 camadas NS não é uma panacéia, e talvez para nós como comerciantes, a melhor opção para o bloco analítico MTS é uma rede de duas camadas - do ponto de vista da máxima precisão de previsão e requisitos mínimos para a complexidade do treinamento (potência do RS, grande história e seu não crescimento).

É hora de pensar em NS fractal com número fracionário de camadas :)) . 2,5 seria justo.

 

maneira hipotética de dominar a tecnologia NS
passo 1.

construir um NS em NS com uma saída de compra/venda, alimentá-lo com Close[x], olhar a tabela, ver - a grade é barulhenta!
passo 2.

Agora alimentamos algo mais suave do que a citação inicial, mas NS é barulhento de qualquer forma.
Por quê? Porque o professor é desigual. Eu sou preguiçoso demais para fazer à mão. (Você precisa de um espiralador aqui)
passo 3.

Leia o artigo do Reshetov, envie NS, treine-o no testador e notifique - sem nenhuma função de erro definida explicitamente.
Então, o Strategy Tester rumbles, developer purrs, diz que Reshetov é inteligente, ele descobriu tudo, inventou um professor de verdade.
Entretanto, Reshetov é inteligente, mas meu computador não está funcionando bem com o MT-4, então onde está o MT-5?
E para 4 entradas, este "NS" é novamente barulhento. Agora os dados históricos se revelam desiguais - contém diferentes tipos de mercados e não sabemos quais)
.... repetimos os passos 1-3 no loop.
passo 4.

percebemos que estamos presos - não podemos fazer crescer a rede, a MQL é lenta e o treinamento de neuropatas está um pouco longe de ser comercializado.
passo 5.

Pensando numa encruzilhada - agora que começamos a trabalhar com NS, sabemos que NS não é tanto matemática. como a tecnologia,
pode ser salva por NS Trader, tem um testador melhor.
bem e...
para que serve tudo isso?
passo 6

Se inventamos uma rede e a treinamos, neste processo, torna-se mais claro o que realmente precisamos e o real é realizado sem NS,
sem NS de todo.
acontece
O NS só é necessário para entender o que pode ser explicado enquanto você o explica a uma pessoa burra))))

 
TheXpert писал(а) >>

Vamos fazer as contas.

Na página 7 do tópico que coloquei no arquivo com o artigo, há uma estimativa da complexidade do treinamento (p.65-66): C=P*w^2=d*P^2=(w^4)/d, o que sugere que eu estraguei um pouco (um pouco grávida) e a complexidade é proporcional a d*P^2 ou através do número de sinapses: (w^4)/d

Além disso, a introdução de uma segunda camada oculta permite reduzir especificamente o tamanho da primeira.

De onde vem isso?
 
Neutron >> :
De onde vem?

Se não estritamente, então indiretamente a partir do número de parâmetros ajustáveis. Estritamente nyahsil. Eu não sou bom em provas.

E se eu acrescentar minha própria idéia, eu realmente penso por algum tempo que a melhor estrutura de convergência de velocidade não-linear do perseptron é a espinha de peixe, mas eu ainda não a verifiquei.

Quando chegar a ele, eu o desenharei.


Algumas idéias para o Ano Novo :)) .

 
Korey писал(а) >>
>>) enquanto ele lhe explica algo, ele deve entender o que está explicando).

Há um ponto importante que você não quis fazer - você terá que explicar o NS uma vez (e você também o entenderá, como você observou corretamente), e então, como um torno, ele funcionará no mundo em transformação (cotier), não se importando que você entenda completamente o que ele significa!

TheXpert escreveu >>

estrutura perseptron -- espinha de peixe

O que você está fumando?

Ah, entendi! Bem, com certeza parece uma árvore de Natal. Eu tenho a mesma coisa em um nível intuitivo.

 
Neutron >> :

...

De onde vem isso?

leia haykin -------> ponto 4.15. Métodos de simplificação da rede

 

Não faz nenhuma diferença qual o algoritmo que você leva para aprender . O resultado é o mesmo). Não é preciso escavar na rede neural, é preciso procurar por insumos.

 
PraVedNiK писал(а) >>

leia haykin -------> ponto 4.15. Métodos de simplificação da rede

Não há problema. >> Vamos lê-lo!

 

Abeto! A intuição não tem nada a ver com isso, NS é um codificador piramidal, + é semelhante ao FFT.
Por exemplo, com base no modelo de codificador piramidal, é elementar calcular o número mínimo de neurônios.

ou seja, o codificador piramidal é a cobertura mínima do NS projetado.

 
Neutron >> :

O que você está fumando?

Desistir :)

Ah, entendi! Bem, com certeza parece uma árvore de Natal. Eu tenho a mesma coisa no nível do intestino.

Razão: