Come formare correttamente i valori di input per il NS. - pagina 9

 
sergeev писал (а) >> 3. la questione del sovrallenamento della rete

La questione del sovrallenamento non è semplice e non esiste una risposta chiara. Per evitare il sovrallenamento, il controllo incrociato è talvolta utilizzato, ma non sempre aiuta se il periodo di allenamento è troppo breve. Ma in generale, il miglior controllo contro il sovrallenamento è un reale o un OOC.

 
TheXpert писал (а) >>

Sì, avrò qualcosa da leggere stasera, molto probabilmente tirerò fuori il codice presto :)

Ehhh. Davvero non capisco perché non vogliano credere "rapidamente" all'idea e poi sedersi a codificare.

Se si torna all'argomento, si scopre che hanno già trovato gli ingressi "giusti", sono normalizzati e l'unica cosa rimasta ... ... è essere in tempo per il "campionato". Tutto (nel senso di strumenti, non di input) è già stato inventato. In questo contesto - Neurosolutions o Neuroshel 2 (e molti altri programmi). Almeno assicurarsi che gli ingressi AND sono "sbagliati" e la "normalizzazione" li distorce ancora di più, sarà veloce.

Sì. C'è un argomento - tutti i programmi sono superati, gli algoritmi sono coperti di muschio, ma ... forse gli input sono sbagliati dopo tutto :)

'

Eccomi, dall'obsoleto, "inchiodato" "network" "Polynominal Net (GMDH)" (da NeuroShell 2) - dieci ore di allenamento/apprendimento e la formula di mercato è pronta :)

 
sergeev писал (а) >> 9 Reti ricorsive

La cosa buona delle reti ricorrenti è che non ci sono "insegnanti". Così, escludiamo una variabile molto importante: gli "insegnanti" della rete. Dal momento che è possibile fare un errore con i dati di uscita (su cui la rete sarà addestrata), avendoli esclusi, possiamo concentrarci solo sulla ricerca degli ingressi.

 
LeoV писал (а) >>
La validazione incrociata è quando, per esempio, una rete viene addestrata nell'intervallo del 2007 e il miglior risultato, ottenuto nell'intervallo del 2007, viene "testato" nell'intervallo del 2008, e se è migliore del precedente (anch'esso "testato" nel 2008), questa rete viene lasciata. E così via. Allo stesso modo, non si ottengono risultati migliori nel 2007, ma non ci si deve preoccupare di questo, perché la rete viene controllata nel 2008. In questo modo si evita l'overtraining (per la rete) o l'overoptimization (per il TC).

Si tratta di forward-testing, EMMNIP :), penso che dovresti leggere anche Haykin.

E in generale i tuoi ultimi post non sono informativi, puoi finalmente iniziare ad esprimere pensieri veramente utili?

 
TheXpert писал (а) >>

È un test in avanti, EMNIP :), penso che dovresti leggere anche Haykin.

E in generale, dei tuoi post recenti non ce n'è uno solo informativo, puoi finalmente iniziare a esprimere pensieri veramente utili?

Scusa, scusa, non di nuovo. Mi sto facendo prendere un po' la mano.....)))))

 
LeoV писал (а) >>

La cosa buona delle reti ricorrenti è che non ci sono "insegnanti". Così, escludiamo una variabile molto importante: gli "insegnanti" della rete. Quindi, se escludiamo una variabile molto importante, gli insegnanti, possiamo concentrarci solo sulla ricerca degli input.

Cosa? Le reti ricorrenti non hanno un insegnante? Le reti ricorrenti differiscono dalle MLP in presenza di feedback, ma in nessun modo in assenza di un insegnante. RTFM sui modelli Elman e Jordan.

 
TheXpert писал (а) >>

È un test in avanti, EMNIP :)

Ultimo punto, scusate. I test in avanti sono diversi. Ma forse non mi sono spiegato bene? Ma l'ho riletto - sembra avere un senso. Semplicemente non l'hai capito.....

 
TheXpert писал (а) >>

Cosa? Ooo Le reti ricorrenti non hanno un insegnante? Le reti ricorrenti differiscono dalle MLP in presenza di feedback, ma non in assenza di un insegnante. RTFM sui modelli di Elman e Jordan.

Beh, se c'è, allora c'è! Non mi dispiace ))))

 
SergNF писал (а) >>

Eh. Davvero non capisco perché non vogliano credere "rapidamente" a un'idea e poi passare alla codifica.

Se torniamo all'argomento, si scopre che hanno già trovato gli ingressi "giusti", li hanno normalizzati e tutto ciò che resta... ... è essere in tempo per il "campionato". Tutto (nel senso di strumenti, non di input) è già stato inventato. In questo contesto - Neurosolutions o Neuroshel 2 (e molti altri programmi). Almeno assicurarsi che gli ingressi AND sono "sbagliati" e la "normalizzazione" li distorce ancora di più, sarà veloce.

Sì. C'è un argomento - tutti i programmi sono superati, gli algoritmi sono coperti di muschio, ma ... forse gli input sono sbagliati dopo tutto :)

'

Eccomi, dall'obsoleto, "inchiodato" "network" "Polynominal Net (GMDH)" (da NeuroShell 2) - dieci ore di allenamento/apprendimento e la formula di mercato è pronta :)

È quello che faccio io, ma dato che ho il mio software, lo uso.

E riguardo al codice - Neurosolutions o Neuroshell 2 porteranno il codice a MQL4? Scriverò un paio di funzioni, che penso saranno utili per la gente del posto, e forse anche per me. Soprattutto perché ci vuole un'ora per scrivere cento righe di codice.

 
LeoV писал (а) >>

Un ultimo punto, scusate. I test in avanti sono diversi. Ma forse non mi sono spiegato bene. Ma l'ho riletto - sembra avere un senso. Semplicemente non l'hai capito.....

Non importa, scusate se mi sbaglio.

Motivazione: