Como formar os valores de entrada para os NS corretamente. - página 9

 
sergeev писал (а) >> 3. A questão do supertreinamento da rede

A questão do supertreinamento não é simples e não há uma resposta clara. Para evitar o excesso de treinamento, às vezes é usado o crosschecking, mas nem sempre ajuda se o período de treinamento for muito curto. Mas em geral, o melhor controle contra o excesso de treinamento é um real ou um OOC.

 
TheXpert писал (а) >>

Sim, eu terei algo para ler esta noite, muito possivelmente eu vou quebrar o código em breve :)

Ehhh. Eu realmente não entendo porque eles não querem "rapidamente" acreditar na idéia e depois se sentar para codificar.

Se você voltar ao tema, acontece que já encontrou as entradas "certas", elas são normalizadas e a única coisa que resta ... ... é chegar a tempo para o "campeonato". Tudo (no sentido de ferramentas, não de insumos) já foi inventado. Neste contexto - Neurosolutions ou Neuroshel 2 (e muitos outros programas). Pelo menos certifique-se de que E as entradas estão "erradas" e que a "normalização" as distorce ainda mais, será rápido.

Sim. Há um argumento - todos os programas estão desatualizados, os algoritmos são cobertos com musgo, mas ... talvez as entradas estejam erradas afinal de contas :)

'

Aqui, de desatualizado, fui "picado" pela "Rede Polinominal (GMDH)" (da NeuroShell 2) - dez horas de treinamento/aprendizagem e a fórmula de mercado está pronta :)

 
sergeev писал (а) >> 9 Redes recursivas

O bom de redes recorrentes é que não há "professores". Assim, excluímos uma variável muito importante - os "professores" da rede. Como é possível cometer um erro com os dados de saída (sobre os quais a rede será treinada), tendo sido excluída, podemos nos concentrar apenas em encontrar as entradas.

 
LeoV писал (а) >>
A validação cruzada é quando, por exemplo, uma rede é treinada no intervalo de 2007 e o melhor resultado, obtido no intervalo de 2007 é "testado" no intervalo de 2008, e se for melhor do que o anterior (também "testado" em 2008), esta rede é deixada. E assim por diante. Da mesma forma, você não obtém melhores resultados em 2007, mas não precisa se preocupar com isso, pois a rede é verificada em 2008. Desta forma, evitamos o supertreinamento (para a rede) ou a super-otimização (para o TC).

É um teste de antecipação, EMMNIP :), acho que você deveria ler Haykin também.

E em geral seus últimos posts não são informativos, você pode finalmente começar a expressar pensamentos realmente úteis?

 
TheXpert писал (а) >>

É um teste de avanço, EMNIP :), acho que você deveria ler Haykin também.

E em geral, de seus últimos posts não há um único informativo, você pode finalmente começar a expressar pensamentos realmente úteis?

Desculpe, desculpe, outra vez não. Estou me entusiasmando um pouco.....)))))

 
LeoV писал (а) >>

O bom de redes recorrentes é que não há "professores". Assim, excluímos uma variável muito importante - os "professores" da rede. Como os dados de saída (com os quais a rede aprende) também podem ser errôneos, ao excluí-los, podemos nos concentrar apenas em encontrar entradas.

O quê? Ooh As redes recorrentes não têm um professor? As redes recorrentes diferem das MLPs na presença de feedbacks, mas de forma alguma na ausência de um professor. RTFM sobre os modelos Elman e Jordan.

 
TheXpert писал (а) >>

É um teste de avanço, EMNIP :)

Último ponto, desculpe. Os testes prospectivos são diferentes. Mas talvez eu não tenha explicado bem? Mas eu li novamente - parece fazer sentido. Você simplesmente não conseguiu.....

 
TheXpert писал (а) >>

O que???? Ooo As redes recorrentes não têm professor? As redes recorrentes diferem das MLPs na presença de feedbacks, mas não na ausência de um professor. RTFM sobre os modelos de Elman e Jordan.

Bem, se existe, então existe! Eu não me importo ))))

 
SergNF писал (а) >>

Eh. Eu realmente não entendo porque eles não querem "rapidamente" acreditar em uma idéia e depois começar a codificar.

Se voltarmos ao tema, acontece que eles já encontraram as entradas "certas", normalizaram-nas e tudo o que resta... ... é chegar a tempo para o "campeonato". Tudo (no sentido de ferramentas, não de insumos) já foi inventado. Neste contexto - Neurosolutions ou Neuroshel 2 (e muitos outros programas). Pelo menos certifique-se de que E as entradas estão "erradas" e que a "normalização" as distorce ainda mais, será rápido.

Sim. Há um argumento - todos os programas estão desatualizados, os algoritmos são cobertos com musgo, mas ... talvez as entradas estejam erradas afinal de contas :)

'

Aqui estou eu, do obsoleto, "pregado" "rede" "Rede Polinominal (GMDH)" (do NeuroShell 2) - dez horas de treinamento/aprendizagem e a fórmula de mercado está pronta :)

É isso que eu faço, mas como tenho meu próprio software, eu o uso.

E sobre o código - Neurosolutions ou Neuroshell 2 portarão o código para MQL4? Escreverei algumas funções, que acho que serão úteis para a população local, e talvez para mim também. Especialmente porque leva uma hora para escrever uma centena de linhas de código.

 
LeoV писал (а) >>

Um último ponto, desculpe. Os testes prospectivos são diferentes. Mas talvez eu não tenha explicado bem. Mas eu li novamente - parece fazer sentido. Você simplesmente não conseguiu.....

Não importa, desculpe se eu estiver errado.