Redes neurais. Perguntas dos especialistas. - página 9

 
LeoV писал(а) >>

Até quando a treinamos? Até o mínimo erro? É preciso entender que será 100% sobretreinamento. Não ao mínimo erro? Então até o quê? Qual é o lucro? E por que exatamente a este erro? O lucro aumentará ou diminuirá se diminuirmos ligeiramente o erro? E se você aumentar o erro?

Como esta.....))))

Até o mínimo erro. Para evitar "supertreinamento" (palavra que não reflete o significado do fenômeno), o número de neurônios na rede deve ser o menor possível. Após o treinamento, existem procedimentos como analisar a influência de insumos individuais na rede e remover neurônios fracos, e um procedimento como reduzir o número de neurônios. Como se fosse para colocar figurativamente ... para que neste cérebro eletrônico não haja espaços vazios que não sejam afetados pelo treinamento.

 
LeoV >>:
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Como não responder. A resposta.

joo escreveu >>

Digamos que você esteja interessado no TS dando o máximo de lucro possível e com a maior freqüência possível, isto é, tentando aumentar a porcentagem de negócios lucrativos e, é claro, o MO.

A partir de uma rede treinada neste princípio, você pode esperar que haja lucros também no OOS. Você precisa aplicar um erro quadrático médio que acentua a rede sobre os padrões que contribuem para estes objetivos. Ou seja, a rede se concentra em padrões específicos que levam a algum tipo de conseqüência.

No entanto, se você usar o erro raiz-medo quadrado, há uma "média" dos padrões, não uma ênfase.

Você precisa treinar até o mínimo erro médio de raiz. E o supertreinamento acontecerá se você usar o erro médio raiz (não para aproximação). Para aproximação, quanto menor o erro RMS, melhor.

É claro que ninguém provavelmente dará respostas específicas às suas perguntas, mesmo que quisesse. Eu só tentei mostrar que a escolha da função de adequação é quase uma tarefa mais importante que determinará as respostas às nossas perguntas do que a escolha dos valores de entrada para a grade. E como regra, limita-se a enumerações agonizantes e demoradas de dados de entrada......

E a Integer ficou um pouco à frente da curva enquanto eu escrevia. Eu concordo com ele.

 
Integer писал(а) >>

Até o mínimo erro. Para evitar "supertreinamento" (palavra que não reflete o significado do fenômeno), o número de neurônios na rede deve ser o mais baixo possível. Após o treinamento, há procedimentos como analisar a influência de insumos individuais na rede e remover os fracos, e um procedimento como reduzir o número de neurônios. Como se fosse para colocar figurativamente ... para que neste cérebro eletrônico não haja espaços vazios que não sejam afetados pelo treinamento.

E o que você quer dizer com "requalificação"?

 
joo писал(а) >>

Eu concordo com você, assim como concordo com a Integer. Mas você mesmo escreveu -

>> não ninguém para lhe dar respostas específicas às suas perguntas.
))))
 
LeoV писал(а) >>

E o que você entende pela palavra "requalificação"?

No contexto da aplicação e treinamento de redes neurais, eu não o entendo de forma alguma, não reflete o significado do fenômeno. Como eles escrevem sobre redes neurais, por exemplo, aqui (e não só) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:

Muito poucos exemplos podem causar "supertreinamento" da rede, quando ela tem um bom desempenho em exemplos de treinamento, mas pouco em exemplos de teste sujeitos à mesma distribuição estatística.

Entendido como o treinamento da rede em menos exemplos do que ela pode acomodar. Fica denteado e confuso se a situação não se assemelha exatamente à experiência denteada. A palavra "entalhado" é da palavra "rote" - conhecer de cor, mas não compreender ou ser capaz de aplicar as informações.

 
LeoV >>:

Я с вами согласен, точно так же как и с Integer. Но вы сами написали -

))))

Bem, ainda assim, eu quis dizer em números específicos improváveis. :)

 
Integer писал(а) >>

No contexto da aplicação e treinamento de redes neurais, eu não o entendo de forma alguma, não reflete o significado do fenômeno. Como eles escrevem sobre redes neurais, por exemplo, aqui (e não só) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:

Entendo isso como o treinamento de uma rede em menos exemplos do que ela pode acomodar. Fica denteado e confuso se a situação não parecer exatamente como uma experiência denteada. "roleta" vem da palavra "roleta" - conhecer de cor, mas não compreender ou poder aplicar as informações.

O termo "overlearning", em minha opinião, aplica-se mais à aplicação de redes neurais nos mercados financeiros. Sabemos que o mercado muda com o tempo, os padrões mudam, e o mercado futuro não será exatamente o mesmo que no passado. Assim, quando uma rede aprende, aprende muito bem o mercado e não é mais capaz de trabalhar adequadamente no futuro - no mercado que mudou. Isto é "over-learning". A redução do número de neurônios é, naturalmente, um método para evitar a "reciclagem". Mas não funciona sozinho.

 
LeoV >>:

Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Ну вот как-то так.....))))

A rede é treinada para um erro mínimo na amostra de teste, ajustando os pesos na amostra de treinamento.

 
StatBars писал(а) >>

A rede é treinada para um erro mínimo na amostra de teste, ajustando os pesos na amostra de treinamento.

É compreensível. Quanto menor o erro, maior o lucro? Ou qual é a correlação?

 
Integer >>:

До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.

O número de neurônios nem sempre desempenha um papel decisivo, embora a seleção do número de neurônios (que na maioria dos casos é mínimo sem perda de precisão) leve a uma redução no erro.

Influenciar as entradas e remover as desnecessárias pode muitas vezes ter um efeito maior do que selecionar os neurônios em uma camada.

Razão: