Galateo del mercato o buone maniere in un campo minato - pagina 26

 

Mi prenderò un po' di tempo libero -:)

Dovremmo andare in biblioteca...

 
registred писал(а) >>

Non ho capito bene cosa intendi per "riqualificazione ad ogni passo"?

Faccio solo previsioni usando NS per un conteggio in avanti. Poi, per non perdere la precisione della previsione, riaddestro la rete usando nuovi dati di input, ecc. In questa situazione, non è possibile riqualificare la griglia "da zero", ma mantenere i vecchi valori dei pesi come valori di partenza nel nuovo conto alla rovescia.

Questo è esattamente quello che avevo in mente.

 

Neutron, quando passo dalla previsione di ampiezza alla previsione di segno, si scopre che l'errore nell'uscita della griglia è un errore di segno. Cioè, l'errore assume un valore di +1 o -1.

Ho capito bene questo punto? Se no, come?

 
Neutron >> :

Faccio una previsione usando NS solo un conteggio in avanti. Poi, per mantenere l'accuratezza della previsione, riaddestro la griglia usando nuovi dati di input, ecc. In questa situazione, non è possibile riqualificare la griglia "da zero", ma salvare i vecchi valori dei pesi come valori di partenza nel nuovo conto alla rovescia.

Questo è esattamente quello che intendevo.

Mi chiedo se una rete piatta cambia la prospettiva delle previsioni?

 
Jingo писал(а) >>

Mi chiedo se è un piatto - la rete cambia la prospettiva delle previsioni?

Beh, certo che è così! È adattivo per natura.

E poi, un flat è essenzialmente lo stesso di un trend, solo più piccolo... Quindi la tua domanda si riduce all'adattamento di NS a un nuovo/modificato orizzonte commerciale. Questa è la sua responsabilità diretta. Il fatto che io usi i "vecchi" valori dei pesi in un mercato già "nuovo" quando sto riqualificando - non rovina il processo stesso, anzi al contrario. La questione è che il processo di cambiare (esattamente cambiare) la tendenza è quasi stazionario e quindi la tattica scelta si giustifica.

paralocus ha scritto >>.

Neutron, quando passo dalla previsione di ampiezza alla previsione di segno, risulta che l'errore nell'uscita della griglia è un errore di segno. Cioè l'errore assume il valore +1 o -1.

Ho capito bene questo punto? Se no, che cos'è?

No, non lo sei.

Il processo di addestramento della rete non differisce dal caso classico, la differenza è che si dà un segnale binario all'ingresso dello strato nascosto di neuroni e l'uscita è un valore reale determinato sull'intervallo [-1,1] (in caso di attivazione del neurone di uscita th()) e proporzionale alla probabilità di accadimento dell'evento (certezza della rete in un segno di incremento atteso). Se non vi interessa la probabilità, ma solo il segno del movimento del cotyr atteso, allora interpretate solo il segno della previsione, ma addestrate la rete su numeri reali (voglio dire che l'errore nel metodo ORO deve essere un numero reale). Il fatto che il tasso di apprendimento aumenti con questo metodo rispetto al caso generale non è un paradosso. Il fatto che dando il segnale binario in ingresso, riduciamo significativamente la dimensionalità dello spazio delle caratteristiche di ingresso in cui il NS deve essere addestrato. Confronta: o +/-1 o da -1 a 1, con incrementi di 0,001 e ogni valore deve essere collocato sull'ipersuperficie di dimensione d (numero di ingressi), avendola precedentemente costruita dallo stesso NS (lo fa durante il suo allenamento).

 
Neutron >> :

...si alimenta un segnale binario allo strato nascosto di neuroni e l'uscita è un valore reale definito sull'intervallo [-1,1]

Questo è tutto! Non mi verrebbe nemmeno in mente! >> Lo proverò ora).

 

...Confronta: o +/-1 o da -1. a 1, in passi di 0,001 e ogni valore deve essere posto su un'ipersuperficie di dimensione d (numero di ingressi), avendola precedentemente costruita dallo stesso NS (lo fa durante il suo allenamento).


E se l'ingresso è un segnale binario, non è meglio renderlo 0/1?

 

No, certo che no!

Il vostro centro di gravità di un tale "ingresso" è spostato di 0,5 (il suo MO), mentre l'ingresso ha MO=0 all'inizializzazione. Quindi, dovrete spendere una parte delle vostre risorse per un tiro a vuoto (regolazione del peso) del singolo ingresso di un neurone per adattarlo alla cosa più ovvia. In generale, tutto ciò che può essere fatto in modo indipendente, senza la partecipazione di AI, dovrebbe essere fatto. Questo fa risparmiare molto tempo di apprendimento per i NS. È a questo scopo che gli input vengono normalizzati, centrati e sbiancati. Tutto questo, per non distrarre l'attenzione dell'IA con banalità, ma per concentrarsi sul più importante e difficile - correlazioni multivariate non lineari e autocorrelazioni.

 

Sì, l'ho capito.

Attualmente sto modificando il mio perseptron a due strati ad autoapprendimento. Se tutto va bene, sarà attivo e funzionante oggi.

 
paralocus писал(а) >>

Speriamo che sia in funzione entro oggi.

Non farti illusioni :-)

Nella mia esperienza, sarete pronti a dire la stessa cosa altre 20-25 volte prima che funzioni davvero.

Motivazione: