Galateo del mercato o buone maniere in un campo minato - pagina 87

 
Neutron писал(а) >>
Ho messo questo compito nelle mani di NS, decide, sulla base di analisi, come "breve" storia possibile (ancora storia, che altro può essere utilizzato in TA?), per aprire in direzione (H +) o contro (H-).

Allora non rimane molto della dissertazione, vero?

E il perceptron, secondo voi, e. prevedere SOLO la direzione.

 
M1kha1l >> :

Allora non rimane molto della dissertazione, vero?

E il perceptron, secondo voi, e. prevedere SOLO la direzione.

Quindi non ci interessa la tesi ma il profitto... Per la stessa ragione, non abbiamo bisogno di sapere nulla tranne la direzione (il segno del prossimo punto di riferimento).

 

Gli schemi del pastore non sono la stessa cosa?

Che differenza fa se li analizzi con le statistiche o con le reti...

 
gpwr писал(а) >>

La mia rete ha ricevuto 300 esempi di allenamento e il numero di pesi era 45. In letteratura c'è l'opinione che con 5 volte più esempi di allenamento che pesi, la rete con il 95% di probabilità sarà generalizzata. Cioè, la mia rete deve avere una buona generalizzazione secondo la teoria, ma in realtà non è così. Ecco perché ho dato degli esempi per confermarlo. Penso che il punto qui non sia prendere più esempi di formazione. Si tratta della natura del problema che sto forzando la rete a risolvere. Se si cerca di far prevedere alla rete la dimensione del prossimo passo del prezzo, allora nell'addestramento essa tenderà a pesi tali per cui i neuroni operano nell'area lineare della funzione di attivazione, al fine di preservare la proporzionalità tra il passo previsto e i passi passati in ingresso. Cioè, il compito stesso è lineare. Dato questo stato di cose, l'aggiunta di neuroni nascosti non migliorerà nulla. E lo stesso strato nascosto diventa inutile. Sperimentando con la mia rete, sono arrivato alla conclusione che un singolo strato funziona bene come un doppio strato. Penso che, leggendo i tuoi post precedenti in questo thread, sei arrivato alla stessa conclusione anche per EURUSD.

Penso che la rete dovrebbe essere usata per problemi altamente non lineari (come XOR o problemi di classificazione) dove la funzione di attivazione dei neuroni può essere scelta per essere sfalsata.

Se non è difficile, mandatemi un campione (.rar) su cui avete addestrato NS, campione di circa 10000 esempi. O il codice che lo formerà...

A prima vista, nell'esempio che hai archiviato sulla rete, c'è una forte relazione lineare tra input e output - quindi la rete funziona come un risolutore lineare...

//----

riguardo al campionamento: c'è un modo per determinare un campione sufficiente per l'allenamento, ma la rete (10-21-8-1) può essere riqualificata con un campione di 50 000 o 100 000 campioni...

quindi è meglio allenarsi con la convalida incrociata...

 
paralocus писал(а) >>

Non è la tesi che ci interessa, è il profitto... Per la stessa ragione non abbiamo bisogno di sapere nulla tranne la direzione (il segno del prossimo conteggio).

E in quale timeframe pensi che la previsione della direzione delle candele abbia senso? Sto scavando proprio in questa direzione (non sto usando un neuronet), i risultati (probabilità di previsioni corrette) sono i seguenti m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. Il consulente basato su questo metodo drena al tasso di diffusione. :/

 
lea >> :

E su quale timeframe pensi che la previsione della direzione delle candele abbia senso? Sto scavando in questa direzione ora (non usando un neuronet); i risultati (probabilità di previsioni corrette) sono i seguenti: m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. Il consulente basato su questo metodo drena al tasso di diffusione. :/

Nessuno di loro, secondo me. >>I tempi sono fuori!

 
paralocus >> :

Non credo. Tempi un corno!

Dopo tutto, hai ereditato il temperamento del tuo Eroe! Prenditi il tuo tempo, verrà il momento e scriverai qualcosa del genere:

Fuori i tic!

E' solo che, tutto a suo tempo...

>> buona fortuna! :о)

 
grasn писал(а) >>

E' solo che, tutto a suo tempo...

Mentre la mia rete neurale sta raccogliendo statistiche (si è bloccata un paio di volte a causa dell'instabilità della convergenza con un gran numero di neuroni nello strato nascosto, così ho dovuto reintrodurre la normalizzazione del tasso di conteggio alla lunghezza del vettore dei pesi), darò il mio feedback sull'applicabilità di NS.

Sopra ho suggerito la capacità della rete addestrata di riempire le lacune statistiche nel vettore di addestramento. Questo, a mio parere, permette di utilizzare efficacemente NS quando c'è una mancanza di dati di allenamento. Tuttavia, la natura si è rivelata ancora più interessante... Sembra che la specializzazione principale di NS si trovi in un'area leggermente diversa. Il suo compito è quello di "produrre" un valore (predizione) basato su quei valori dei dati di input che non hanno preso parte all'addestramento. È comprensibile, ma pensaci... È sufficiente avere alcuni punti di riferimento nella gamma NECESSARIA di input (la gamma di valori che gli input prendono) per prevedere il valore atteso sui dati di input "leggermente" sbagliati nel modo più affidabile possibile. Questa è la proprietà principale di NS, e il punto chiave qui è il fatto della continuità della gamma di valori dei dati di input. È qui che entra in gioco il potere di NS.

Cosa succede se i dati di input sono discreti? Niente in particolare, anche NS funzionerà. Ma ora abbiamo l'opportunità di raccogliere statistiche su tutte le combinazioni di valori discreti e fare la stessa previsione come nel caso di NS ma senza. Ma non dobbiamo dimenticare che NS lo farà molto più velocemente e più elegantemente (se ci sono molti valori discreti, ma se non ci sono...). E, se la discretezza dei valori di ingresso è bassa, o sono solo due (+/-1), allora, come si scopre, NS non è necessario! È sufficiente raccogliere statistiche per ogni valore, e niente in natura darà una previsione più accurata di questa.

Per la previsione di voci binarie ci sono metodi molto più efficienti di NS. Questo non sminuisce i meriti di NS, ma è affascinante il modo in cui la previsione di BP è ridotta a una previsione binaria!

La figura mostra la gamma di stati che un NS binario a due entrate accetta. Il numero di combinazioni che i valori di ingresso possono prendere è solo 4. E in ognuno di essi dobbiamo prendere una decisione di acquisto/vendita. NS non è necessario qui! Abbiamo bisogno di statistiche banali. Per 3 input NS, otteniamo un cubo tridimensionale con 8 vertici, in ognuno dei quali lo stesso Buy/Sell, ecc.

Ancora una volta, non sto sminuendo i meriti di NS. Per esempio, se prevediamo la popolazione di Daphnia nello stagno, che dipende da un centinaio di fattori (acidità dell'acqua, temperatura, ecc.), non possiamo fare previsioni affidabili cambiando uno o due parametri dell'1% senza NS - arriveremo sicuramente nel campo in cui non c'è alcuna statistica o non è adatta all'interpolazione.

 
Neutron >> :
...

Sembra un verdetto.... come un "verdetto", per esempio a Minsky, che ha dimostrato gravi limiti dei percettori e di cui nella ricerca del denaro si dimenticano semplicemente. E dimenticano anche che anche una rete multistrato con inizializzazione non lineare non dà assolutamente garanzie di classificazione corretta, e dimenticano anche ... (ma questo è uno scherzo, non l'inizio di un'altra discussione). Confesso che non ho ancora capito qual è il potere di NS dal tuo post, ma la mia esperienza nel costruire sia il mio che usare mezzi specializzati di NS dà una risposta semplice e chiara - usare il perceptron non dà alcun vantaggio, specialmente - su file "cattivi" (i tuoi kags sono file molto cattivi per la previsione).


Ma buona fortuna comunque. A dopo, (sparirò per un paio di settimane).

 
Se qualcuno è interessato, c'è una storia completa di futures disponibile su FORTS. È profondo diversi anni.
Motivazione: