Reti neurali, come padroneggiarle, da dove cominciare? - pagina 6

 
nord >> :

>> ...ma Better ha avuto ottimi risultati, quindi qualcosa può sopravvivere se usato correttamente.

A giudicare dai risultati del CHAMPI 2008, dove Mr. Better e altri partecipanti al CHAMPI hanno usato NS, quali posti hanno occupato i loro consiglieri?

Come abbiamo visto nel 2008, i leader del campionato sono consiglieri di qualsiasi tipo, ma non quelli con NS!

Questo porta a un'altra domanda: il signor Better`s non è stato colpito da un incidente nel 2007?

 
L'NS nella TS è una misura con ridondanza,
ma anche la ridondanza della rete neurale potrebbe non essere sufficiente per ottenere un profitto.
 
TheXpert писал(а) >>

Stronzate.

In molti problemi, il Perspectron a 4 strati mostra risultati e convergenza molto migliori.

E in alcuni posti, se ne usa uno a 5 strati. Il suo strato nascosto medio cattura i dati intermedi per un'ulteriore analisi.

A proposito, le reti di ricircolo distribuite non sono altro che un perseptron. E un RNS non lineare distribuito è solo un perseptron a 5 strati.

Per ora tacerò sulle reti complesse (con più strati di uscita e collegamenti complessi) basate su un perseptron.

È un po' complicato.

So che non molto tempo fa sono stati dimostrati due teoremi. Secondo il primo, il NS non lineare a tre strati (che consiste in tre strati di neuroni, con non linearità all'uscita di ciascuno) è un approssimatore universale e aumentando ulteriormente il numero di strati non aumenta la potenza della rete. Secondo il secondo teorema, la potenza di calcolo della rete non dipende dal tipo specifico di non linearità alle uscite dei suoi neuroni. È importante che ci sia una non-linearità di principio e non importa quale sia esattamente - sigmoide o arctangente. Questo ci evita di cercare il meglio dell'uguale.

Questi due teoremi ci semplificano radicalmente la scelta dell'architettura NS e riducono notevolmente la quantità di lavoro di ricerca possibile.

Inoltre, dimostriamo una relazione univoca tra la lunghezza ottimale del campione di allenamento su dati storici, la dimensionalità dell'input NS e il numero totale delle sue sinapsi, nel senso di minimizzare l'errore di predizione su dati che non hanno preso parte all'addestramento della rete. Questo permette di non impegnarsi nel leninismo selezionando manualmente questo optimum. Alle capacità esistenti di MS, risparmia sensibilmente tempo e forze.

 
Andrey4-min >> :

Cari membri del forum, l'argomento di questo thread è Reti Neurali, come padroneggiarle, da dove cominciare?

Avviciniamoci all'argomento....

Più vicino al soggetto? Nessun problema! Inizia scrivendo un neurone, e poi combinali in una rete. E il software avanzato è per dopo. Tutti gli altri consigli sono spazzatura.

 
Korey >> :
L'NS nella TS è un raccordo con eccesso...

qualsiasi apparato di matrice in tc è un adattamento,

Prendete per esempio l'antico modo di adattamento - lo smoothing esponenziale a due parametri, per nulla peggiore di AI e NS.

 
PraVedNiK писал(а) >>

Smoothing esponenziale a due parametri, NON peggiore di AI e NS.

Esatto: lo smoothing esponenziale biparametrico NON è peggiore del dual-input NS.

D'altra parte, nella NS reale siamo liberi di scegliere la dimensionalità dell'input. Per i BP del tipo prezzo, la dimensionalità tipica si trova nell'area di 10-100. Qui sarà difficile costruire una muve con un tale numero di parametri e certamente sarà impossibile ottimizzarli in un tempo ragionevole. Per questo scopo NS utilizza il metodo della propagazione a ritroso degli errori che è molto più veloce dell'algoritmo genetico nel tester, e tanto più della stupida ricerca di parametri.

 
Lavorare con il NS nel TC mi fa venire i brividi - non devo pensare, non ce n'è bisogno,
cioè tutte le preoccupazioni sono come per le ragazze: cosa far pagare, quando nutrire, cosa confrontare con cosa = una specie di sinecura,
Ho deciso, l'ho provato e ho messo le mani nei pantaloni (per giocare con le palle)), in attesa dei risultati.
il computer funziona - trader rests)))) niente di personale.
 
No, se hai abbastanza assiduità e conoscenza per adattare un quadro teorico alle regolarità trovate sul kotir, allora per favore - sfruttalo a tuo vantaggio! Ma quanto durerà questo modello? Non si tratta di leggi della meccanica, che sono eterne. Domani la tendenza del mercato cambierà e dovrai prendere un pezzo di carta e contare... Lasciate che lo faccia il TS con NS. Stupido, ma di ferro.
 
Neutron >> :

...

utilizza il metodo di propagazione posteriore, che è notevolmente più veloce dell'algoritmo genetico nel tester, molto meno della stupida enumerazione dei parametri.

Il metodo di back propagation NON dà alcuna garanzia nel trovare il minimo globale della funzione di errore, e come per 10-100 ingressi

all'ingresso della rete... In realtà, nessuno ha ancora annullato il ridimensionamento della rete; due ingressi saranno sufficienti, se si analizzano prima le componenti principali, ma il problema è che questa analisi, così come l'addestramento, si fa anche sulla storia.

 
Beh, non essere così duro con te stesso. Dopotutto, la rete viene talvolta riqualificata (e lo faccio su ogni BP analizzata) e il metodo della media trova un minimo. Per quanto riguarda la riduzione della dimensionalità, non funziona per i BP come i BP di prezzo nella misura che state presentando, purtroppo.