Neuromongers, non passare :) bisogno di consigli - pagina 9

 
Figar0:

Ecco una discussione punto per punto:

Grazie Sergey, hai colto il punto.

2) Pre-elaborazione degli input (la domanda sembra abbastanza semplice e abbastanza aperta, possiamo discutere se sappiamo cosa si fa in questo caso e come si fa)

Niente di straordinario. Ci sono diversi livelli, ognuno elaborato separatamente dal filtro Hodrick-Prescott senza sbirciare.

3) Matematica di NS.

Un certo numero di esperimenti ha dimostrato che i parametri di rete hanno un effetto trascurabile sui risultati entro certi limiti. Troppo poco porta al sovrallenamento, troppo porta alla sovrasaturazione.

Per quanto riguarda le reti eco, sono pronto a chiacchierare. Non posterò ancora il codice, ho dei progetti.

4) Questioni "organizzative" dell'operazione NS.

Come/quando allenarsi/ritornare

A proposito, non ho provato a cambiare

, periodi/intervalli

Non ha fatto nemmeno una ricerca seria. Penso che ci sarà un impatto, forse anche periodi diversi a seconda dello strumento.

, la logica del lavoro dell'Expert Advisor-interprete dell'uscita netta

Neanche una ricerca seria, ma da quello che ho cambiato non credo che ci sarà alcun effetto significativo, anche se... dovrà controllare di nuovo.

, MM.

Non vedo proprio il senso di aggiungerlo. La redditività potenziale è facile da stimare con FS.

- perché "eco"? Forse ci sei stato al vapore, parlami dei pro e dei contro.

Beh, per prima cosa, c'è meno margine di manovra con i parametri di rete. Non c'è bisogno di pensare che se per esempio lo strato nascosto è più piccolo dello strato di ingresso, è già una compressione dei dati e c'è un'alta probabilità che la rete non funzioni, ecc. Non devi tenere conto di un mucchio di piccole cose che il resto della rete ha.

In breve, ora lavoro con la rete - butto solo neuroni, connessioni (certo numero, certi tipi).

L'ho adattato. Io lo uso. Non mi interessa molto quello che succede all'interno, quindi in pratica ho una comoda scatola nera.

Praticamente qualsiasi problema risolto da MLP è risolto dalla rete eco.


In secondo luogo ottengo sempre la soluzione ottimale in base alla topologia e al rapporto ingresso/uscita

In terzo luogo - il tempo di adattamento (evito deliberatamente la parola "apprendimento") della rete è previsto con grande precisione, perché si usa MLP per questo, non c'è convergenza, ecc.


Finora ho visto solo uno svantaggio: la limitazione della funzione fitness. Cioè in teoria posso usare solo trovare la soluzione con il più piccolo errore RMS dei FF e così via. Naturalmente, questo può essere aggirato con l'apprendimento genetico, ma allora si perde tutta la bellezza della rete eco.

Anche se no, ce n'è un altro, non sono sicuro, ma secondo me (potrei sbagliarmi) il tempo di addestramento aumenta cubicamente (non tanto l'addestramento quanto la formazione della matrice di derivazione), quindi l'addestramento di una rete con, diciamo, 1000 neuroni richiederà un tempo considerevole.


Come l'hai trovato, innanzitutto?

Grazie allo stesso forum :) dal mio amico gpwr, per il quale voglio ringraziarlo molto :)

Il 2° tipo di TC non è affatto buono imho.

Imho, con il tipo 2 è molto più facile lavorare e analizzare i risultati. Per esempio, il TC del progetto in discussione era originariamente completamente adatto al tipo 2.

a) Sei davvero sicuro che gli ingressi/uscite non possano essere migliorati?

Certo che no.

b) Pre-elaborazione: che aspetto ha? Per esempio, avete analizzato la distribuzione dei valori di input?

La normalizzazione è presente in qualche forma, ma non c'è una seria analisi della distribuzione dei dati.

 
renegate:

Avete fatto qualche devoluzione (trovata negli articoli) per gli indulatori che immettete nell'ingresso della rete?

Ho dato un'occhiata - interessante. Forse puoi condividere la tua esperienza nell'usarli? Quali sono i risultati, i miglioramenti, le caratteristiche, le insidie?

Si potrebbe anche provare a fare gli induttori senza calibro.

Ehm, qui ci sono dei dubbi, ma vorrei comunque sentire anche una breve caratterizzazione.
 

Rappresentiamo, convenzionalmente, l'area dei dati analizzati (pattern) con un rettangolo blu e l'area dei dati predetti con un rettangolo rosso. Nell'implementazione attuale, la dimensione verticale dell'area rossa dipende attraverso un fattore di scala dalla dimensione dell'area blu (e dovrebbe dipendere dal contenuto dei dati dell'area blu, non dalla dimensione dell'area). Ecco due esempi in cui vediamo una discrepanza:

и

Vediamo che la dimensione del rettangolo rosso è più piccola nel primo schermo e più grande nel secondo rispetto alla dimensione di quello blu.

La normalizzazione del segnale è relativa alla dimensione verticale.

Quindi penso che dovremmo normalizzare non per la dimensione del campione, ma per la dimensione dell'intero campione di allenamento. Sembra diminuire la capacità di previsione della griglia.

C'è un inconveniente legato ad esso (ecco perché ho scelto questo modo di razionare), ma sembra che non ci sia modo di evitarlo - dovremmo eseguire il campione di allenamento ancora una volta per ottenere i valori massimi e minimi.

È chiaro che la distribuzione dei segnali dal modello nell'implementazione attuale è spostata pesantemente (il che è male) nell'area dei valori massimi e minimi, perché ogni modello ha valore 1 e valore -1.

Secondo me, dovremmo iniziare con questi cambiamenti.

 
Non è così che l'hai spiegato a me :) . Ora credo di essere d'accordo.
 
TheXpert:
Non è così che l'hai spiegato a me :) . Credo di essere d'accordo ora.

No, non il contrario. Vi dico che le parole sono difficili da spiegare, le immagini sono più facili. Sia per chi parla che per chi ascolta. ;)

PS Per quanto riguarda l'area predittiva sull'apprendimento del profitto - questo rimane il caso, ci sto lavorando.

 

Ho sperimentato il prezzo usando il seguente algoritmo:

1) Ottenere una serie di prime differenze (FDD) da Close

2) Calcolare la media mobile del modulo FFD (ho preso un periodo di 25)

3) Dividere il FFD per la media mobile

Otteniamo la FFD, che è più stazionaria. Si può tornare a una pseudo serie di prezzi usando la somma cumulativa.


Vedo che non stai usando l'RRR. State usando la rimozione del trend per la serie dei prezzi? O semplicemente normalizzi le serie di prezzi ad un determinato intervallo?

 

renegate:

State usando l'eliminazione della tendenza per le serie di prezzi?

Altri dettagli anche qui.

O semplicemente normalizzi la gamma di prezzi in un determinato intervallo?

Al momento la normalizzazione viene eseguita all'interno della descrizione del modello.

Ora farò la normalizzazione su tutto l'insieme dei modelli. Questo non dovrebbe essere troppo difficile.

Vorrei provare ad allegare la devolatilizzazione, ma qui sarà più complicato. Ci penserò.

 

Per fare questo, è necessario accettare l'assioma che la serie dei prezzi è composta da componenti di tendenza, cicliche e di rumore.

Sottraiamo la componente di tendenza dalla serie dei prezzi. Mi vengono in mente 3 modi:

1) Fate l'analisi delle componenti principali (AGC o PCA) e azzerate la prima componente principale.

2) Sottrarre un muving dalla serie di prezzi. Il suo periodo può essere selezionato a occhio o attraverso l'ottimizzazione o l'analisi dello spettro

3) Trovare la regressione lineare di tutta la serie dei prezzi e sottrarre dal prezzo.

Dopo di che otteniamo una serie che contiene solo componenti cicliche e di rumore. È conveniente normalizzarli in un dato intervallo.

 
Questo è effettivamente il componente principale che sto cercando :)
 
renegate:

Ho sperimentato il prezzo usando il seguente algoritmo:

1) Ottenere una serie di prime differenze (FDR) da Close

Nessuna domanda a trabocchetto, perché questo passo?
Motivazione: