Redes neurais, como dominá-las, por onde começar? - página 6

 
nord >> :

>> ...mas é melhor obter resultados muito bons, para que algo possa ser sobrevivido usando-o corretamente.

A julgar pelos resultados da CHAMPI 2008, onde o Sr. Better e outros participantes da CHAMPI usaram NS, que lugares seus assessores ocuparam?

Como vimos em 2008, os líderes do Campeonato são conselheiros de todos os tipos, mas não aqueles com NS!

isto leva a outra pergunta: o Sr. Better não foi baleado em um acidente em 2007?

 
O NS no TS é um ajuste com redundância,
mas mesmo a redundância da rede neural pode não ser suficiente para ter lucro.
 
TheXpert писал(а) >>

Besteira.

Em muitos problemas, o Perspectron de 4 camadas mostra resultados e convergência muito melhores.

E em alguns lugares, é utilizado um de 5 camadas. Sua camada intermediária oculta captura dados intermediários para análise adicional.

A propósito, as redes de recirculação implantadas não são mais do que um perseptron. E um RNS não-linear implantado é apenas um perseptron de 5 camadas.

Vou me manter em silêncio sobre redes complexas (com várias camadas de saída e links complexos) com base em um perseptron, por enquanto.

É meio complicado.

Sei que não faz muito tempo que dois teoremas foram provados. Segundo a primeira, o NS não linear de três camadas (que consiste de três camadas de neurônios, com não linearidade na saída de cada uma) é um aproximador universal e aumentar ainda mais o número de camadas não aumenta a potência da rede. Segundo o segundo teorema, o poder computacional da rede não depende do tipo específico de não-linearidade nas saídas de seus neurônios. É importante que haja não-linearidade em princípio e não importa exatamente o que é - sigmóide ou arctangente. Isto nos poupa de tentar encontrar o melhor do igual.

Estes dois teoremas simplificam radicalmente para nós a escolha da arquitetura NS e reduzem notavelmente a quantidade de trabalho de pesquisa possível.

Além disso, provamos uma relação inequívoca entre a duração ótima da amostra de treinamento sobre dados históricos, a dimensionalidade da entrada NS e o número total de suas sinapses, no sentido de minimizar o erro de previsão sobre os dados que não participaram do treinamento da rede. Isto permite não se envolver no leninismo, selecionando manualmente este ótimo. Com as capacidades existentes da EM, poupa sensivelmente tempo e forças.

 
Andrey4-min >> :

Caros membros do fórum, o tópico deste tópico é Redes Neurais, como dominá-las, por onde começar?

Vamos nos aproximar do tópico....

Mais perto do assunto? Sem problemas! Comece escrevendo um neurônio, e depois os combine em uma rede. E o software avançado é para mais tarde. Todos os outros conselhos são lixo.

 
Korey >> :
O NS no TS é um encaixe com excesso...

qualquer aparelho de matriz em tc é um encaixe,

Tomemos por exemplo a antiga forma de encaixe - suavização exponencial de dois parâmetros, nada pior do que AI e NS.

 
PraVedNiK писал(а) >>

Suavização exponencial de dois parâmetros, NÃO pior que AI e NS.

Isso mesmo: o alisamento exponencial biparamétrico NÃO é pior do que o NS de dupla entrada.

Por outro lado, na NS real somos livres para escolher a dimensionalidade da entrada. Para a BP do tipo de preço, a dimensionalidade típica está na área de 10-100. Aqui será difícil construir um muve com tal número de parâmetros e certamente será impossível otimizá-los em um tempo razoável. Para este fim, a NS usa o método de propagação de erros de volta, que é muito mais rápido do que o algoritmo genético no testador, e ainda mais do que a estúpida busca de parâmetros.

 
Trabalhar com os NS no TS me faz encolher - não tenho que pensar, não há necessidade disso,
Ou seja, todas as preocupações são como para as meninas: o que cobrar, quando alimentar, o que comparar com o que = algum tipo de sinecura,
Eu me decidi, testei e coloquei minhas mãos em minhas calças (para jogar com bolas)), antecipando os resultados.
trabalhos de informática - o comerciante descansa)))) nada pessoal.
 
Não, se você tem assiduidade e conhecimento suficientes para se adequar a uma estrutura teórica à regularidade encontrada no kotir, então, por favor - explore-o a seu favor! Mas quanto tempo esse padrão vai durar? Estas não são leis da mecânica, que são eternas. Amanhã a tendência do mercado vai mudar e você terá que pegar um pedaço de papel e contar... Deixe o TS com NS fazer isso. Estúpido, mas revestido de ferro.
 
Neutron >> :

...

utiliza o método de propagação traseira, que é visivelmente mais rápido do que o algoritmo genético no testador, muito menos a enumeração idiota dos parâmetros.

O método de propagação traseira NÃO dá nenhuma garantia em encontrar o mínimo global da função de erro, e como para 10-100 entradas

com a entrada da rede... Na verdade, ainda ninguém cancelou o downsizing da rede; duas entradas serão suficientes, se os componentes principais forem analisados de antemão, mas o problema é que esta análise, assim como o treinamento, também é feita sobre a história.

 
Bem, não seja tão duro com você mesmo. Afinal de contas, a rede é às vezes reestruturada (e eu faço isso em cada BP analisada) e o método médio encontra um mínimo. Quanto à redução da dimensionalidade, ela não funciona para as BPs como as BPs de preço na medida em que você está apresentando, infelizmente.
Razão: