Reti neurali. Domande degli esperti. - pagina 9

 
LeoV писал(а) >>

Fino a quando la addestriamo? Al minimo errore? Bisogna capire che sarà un sovrallenamento al 100%. Non al minimo errore? Poi fino a quando? Qual è il profitto? E perché esattamente a questo errore? Il profitto aumenterà o diminuirà se diminuiamo leggermente l'errore? E se si aumenta l'errore?

Come questo.....))))

Fino all'errore minimo. Per evitare il "sovrallenamento" (una parola che non riflette affatto il significato del fenomeno), il numero di neuroni nella rete deve essere il più piccolo possibile. Dopo l'addestramento, ci sono procedure come l'analisi dell'influenza dei singoli ingressi e la rimozione di quelli deboli, e procedure come la riduzione del numero di neuroni. Come dire, in senso figurato... in modo che in questo cervello elettronico non ci siano spazi vuoti non influenzati dall'allenamento.

 
LeoV >>:
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Come non una risposta. La risposta.

joo ha scritto >>.

Diciamo che ti interessa che il TS dia più profitto possibile e il più spesso possibile, cioè che cerchi di aumentare la percentuale di trade profittevoli e naturalmente il MO.

Da una rete formata su questo principio, ci si può aspettare che ci saranno profitti anche sugli OOS. È necessario applicare un errore quadratico medio che accentua la rete sui modelli che contribuiscono a questi obiettivi. Cioè, la rete si concentra su modelli specifici che portano a qualche tipo di conseguenza.

Se si usa l'errore quadratico medio, tuttavia, c'è una "media" dei modelli, non un'enfasi.

È necessario allenarsi al minimo errore medio di radice. E il sovrallenamento avverrà se si usa l'errore medio della radice (non per approssimazione). Per l'approssimazione, più piccolo è l'errore RMS, meglio è.

Naturalmente, nessuno è in grado di dare risposte specifiche alle vostre domande, anche se volesse. Ho solo cercato di mostrare che la scelta della funzione di fitness è quasi un compito più importante che determinerà le risposte alle nostre domande rispetto alla scelta dei valori di input per la griglia. E come regola, si limita a enumerazioni agonizzanti e lunghe di dati di input ......

E Integer ha anticipato un po' la curva mentre stavo scrivendo. Sono d'accordo con lui.

 
Integer писал(а) >>

Fino all'errore minimo. Per evitare il "sovrallenamento" (una parola che non riflette affatto il significato del fenomeno), il numero di neuroni nella rete deve essere il più basso possibile. Dopo l'addestramento, ci sono procedure come l'analisi dell'influenza dei singoli ingressi nella rete, e la rimozione di quelli deboli, e una procedura come la riduzione del numero di neuroni. Come dire, in senso figurato... in modo che in questo cervello elettronico non ci siano spazi vuoti non influenzati dall'allenamento.

E cosa intende per "riqualificazione"?

 
joo писал(а) >>

Sono d'accordo con te, così come sono d'accordo con Integer. Ma hai scritto tu stesso -

>> non c'è nessuno che ti dia risposte specifiche alle tue domande.
))))
 
LeoV писал(а) >>

E cosa intende con la parola "riqualificazione"?

Nel contesto dell'applicazione e dell'addestramento delle reti neurali non lo capisco affatto, non riflette il significato del fenomeno. Come scrivono sulle reti neurali, per esempio qui (e non solo) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:

Troppi pochi esempi possono causare un "sovrallenamento" della rete, quando questa si comporta bene sugli esempi di allenamento, ma male sugli esempi di test soggetti alla stessa distribuzione statistica.

Inteso come addestramento della rete su un numero di esempi inferiore a quello che può ospitare. Diventa frastagliato e confuso se la situazione non assomiglia esattamente all'esperienza frastagliata. "Notched" viene dalla parola "rote" - sapere a memoria, ma non capire o essere in grado di applicare le informazioni.

 
LeoV >>:

Я с вами согласен, точно так же как и с Integer. Но вы сами написали -

))))

Beh, comunque, intendevo in numeri specifici improbabili. :)

 
Integer писал(а) >>

Nel contesto dell'applicazione e dell'addestramento delle reti neurali non lo capisco affatto, non riflette il significato del fenomeno. Come scrivono sulle reti neurali, per esempio qui (e non solo) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:

Lo intendo come l'addestramento di una rete su un numero di esempi inferiore a quello che può ospitare. Diventa frastagliato e confuso se la situazione non assomiglia esattamente all'esperienza frastagliata. "rote" deriva dalla parola "rote" - sapere a memoria, ma non capire o essere in grado di applicare le informazioni.

Il termine "overlearning", a mio parere, si applica più all'applicazione delle reti neurali nei mercati finanziari. Sappiamo che il mercato cambia nel tempo, i modelli cambiano, e in futuro il mercato non sarà esattamente lo stesso del passato. Così, quando una rete impara, impara troppo bene il mercato e non è più in grado di eseguire adeguatamente in futuro - in un mercato che è cambiato. Questo è il "sovraapprendimento". Ridurre il numero di neuroni è ovviamente un metodo per evitare la "riqualificazione". Ma non funziona da solo.

 
LeoV >>:

Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Ну вот как-то так.....))))

La rete è addestrata a un errore minimo sul campione di prova, regolando i pesi sul campione di allenamento.

 
StatBars писал(а) >>

La rete è addestrata a un errore minimo sul campione di prova, regolando i pesi sul campione di allenamento.

È comprensibile. Più piccolo è l'errore più grande è il profitto? O qual è la correlazione?

 
Integer >>:

До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.

Il numero di neuroni non gioca sempre un ruolo decisivo, anche se la selezione del numero di neuroni (che nella maggior parte dei casi è minimo senza perdita di precisione) porta a una riduzione dell'errore.

Influenzare gli ingressi e rimuovere quelli non necessari può spesso avere un effetto maggiore che selezionare i neuroni in uno strato.

Motivazione: