Galateo del mercato o buone maniere in un campo minato - pagina 66

 
StatBars >> :

Questi sono gigabyte di modelli inadeguati... non parlando del fatto che il mercato di oggi non è come quello di domani, ecc.

Bene, ecco un controesempio... Chi dice che sono inadeguati (tranne quelli con errori)? Ora avresti bisogno di dare un esempio di un modello adeguato (il suo algoritmo). In modo che l'inadeguatezza degli altri diventasse evidente.

 

La loro inadeguatezza è evidente, significa che il modello è inadeguato, e la ragione di ciò è una quinta questione... Tanto più so per certo che la serie può essere portata ad una stazionaria - quindi non si possono cancellare i propri errori sul fatto che il mercato di oggi non è lo stesso di quello di ieri.

Il fatto che la tua rete si riaddestri ad ogni conteggio è più probabile che sia un difetto di preprocessing che il fatto che il mercato stia cambiando.

 
StatBars писал(а) >>

La loro inadeguatezza è evidente, significa che il modello è inadeguato, e la ragione di ciò è una quinta questione... Più so per certo che la serie può essere portata ad una stazionaria - quindi non puoi cancellare i tuoi errori sul fatto che il mercato di oggi non è lo stesso di quello di ieri.

Il fatto che la rete si riqualifichi ad ogni conteggio è più probabile che sia un difetto del preprocessing che del fatto che il mercato stia cambiando.

"La persona ha chiesto" se Neutron o paralocus ha pensato proprio al modello usato nel NS in questo caso. La pratica oggi lo mostra, domani no. L'idea si basa sull'affermazione che il mercato in ogni momento non è lo stesso di quello precedente. Perché allora si può prevedere tutto, usando le ultime barre? Dov'è quel "pezzo" su cui si conserva la dipendenza tra i valori precedenti e quelli successivi? Finora gli esperimenti sono stati fatti con barre orarie. Se voglio usare i pentametri - devo prendere tutti i pentametri per lo stesso numero di ore? O solo l'ultimo numero X di pentametri? Cosa succede se voglio usare H4? Il sistema non funzionerà? Se c'è autocorrelazione tra 12,13,14,15 ore, sarà tra 12.05, 13.05, 14.05, 15.05?

Se non ci sono dipendenze costanti nel mercato, ci deve essere almeno un'idea pieghevole... Se non c'è o non può esserci nessuno dei due - davvero meglio lanciare i dadi e prendersi cura della perdita manager.....

 
YDzh писал(а) >>

"La persona chiedeva" quanto Neutron o paralocus avessero pensato al modello stesso usato nella NS in questo caso. La pratica mostra oggi, non mostra domani. L'idea si basa sull'affermazione che il mercato in ogni momento non è lo stesso di quello precedente. Perché allora si può prevedere tutto, usando le ultime battute? Dov'è quel "pezzo" su cui si conserva la dipendenza tra i valori precedenti e quelli successivi? Finora gli esperimenti sono stati fatti con barre orarie. Se voglio usare i pentametri - devo prendere tutti i pentametri per lo stesso numero di ore? O solo l'ultimo numero X di pentametri? E se voglio usare H4? Il sistema non funzionerà? Se c'è autocorrelazione tra 12,13,14,15 ore, sarà tra 12.05, 13.05, 14.05, 15.05?

Se non ci sono dipendenze costanti nel mercato, ci deve essere almeno un'idea pieghevole... Se non c'è o non può esserci nessuno dei due - davvero meglio lanciare i dadi e prendersi cura della perdita manager.....

Se vuoi sapere qualcosa allora chiedi in ordine, nella forma in cui li chiedi, sembrano retoriche...

 
StatBars писал(а) >>

Se vuoi sapere qualcosa, devi chiederlo con ordine, nel modo in cui lo chiedi, sembra retorico...

Probabilmente sono una persona primitiva... Mi sembra che la domanda su cosa mi appoggi prima di precipitarmi in mesi di programmazione non sia affatto retorica. La risposta potrebbe essere "Una volta ho letto che le reti neurali sono un'area promettente per lo sviluppo di TC. Ho deciso di provare. Con un esperimento scientifico ho scoperto che dovrei riaddestrare la rete ad ogni passo e usare come input il prezzo di apertura/chiusura". Questo sarebbe il caso nel mio caso, solo che mi sto muovendo in una direzione leggermente diversa. Conoscendo Neutron e il suo amore per gli "artifici" matematici prima di trarre qualsiasi conclusione, ho pensato che avesse qualcosa da coprire, visto che difende questo metodo con tanto ardore. Ecco perché mi interessa la parte teorica. Sono curioso di sapere perché dovrebbe funzionare ai suoi occhi.

 

gpwr, questo thread non è fatto per domande così "profonde". Qui si impara solo a fare una rete neurale, tutto qui.

La questione di cosa dare in pasto all'input, a quale output addestrarlo e quale dovrebbe essere l'architettura della griglia è un'altra questione. È qui che le tue domande "approfondite" tornano utili.

 
StatBars писал(а) >>

Ci sono trasformazioni che possono essere utilizzate per convertire in dati stazionari... So per certo che la serie può essere convertita in stazionario - quindi non potete dare la colpa dei vostri errori al fatto che il mercato di oggi non è lo stesso di quello di ieri.

Il fatto che la rete si riqualifichi ad ogni conteggio è più probabile che sia un difetto del preprocessing che del fatto che il mercato stia cambiando.

YDzh ha scritto>>.

L'idea si basa sull'affermazione che il mercato in ogni momento non è lo stesso di quello precedente. Perché, allora, si può prevedere con le ultime battute? Dov'è il "pezzo" in cui si conserva la dipendenza tra i valori precedenti e quelli successivi? Se non ci sono dipendenze costanti nel mercato, ci deve essere almeno un'idea pieghevole... Se non c'è o non può esserci - è davvero meglio tirare i dadi e prendersi cura del manager delle perdite.....

Dobbiamo definire di che tipo di statirnarietà stiamo parlando.

Infatti, possiamo prendere un SV distribuito normalmente con MO zero e varianza uguale a una costante. Questo è un processo stazionario per tutti i suoi parametri, ma non si può guadagnare su BP integrando questo processo in linea di principio! È la Legge. Puoi vincere, ma non puoi batterlo statisticamente - martingala. Quindi, questo è un esempio di processo stazionario, ma non quello che ho menzionato sopra.

Puoi fare soldi sui BP come i BP del mercato solo se identifichi i modelli tra i suoi conteggi (non devono essere per forza barre). Questo è l'unico requisito. Tuttavia, non è sufficiente identificare tali modelli, questi modelli devono essere stazionari. Tale requisito è naturale e deriva dalla condizione di lavoro di un MTS astratto. È la stazionarietà di questo tipo che avevo in mente sopra e che consideravo ovvia. Purtroppo non possiamo parlare di stazionarietà fino in fondo - il mercato non è stazionario in linea di principio, altrimenti si potrebbero fare soldi in un tale mercato come due dita sul marciapiede! Possiamo solo parlare di quasi-stazionarietà (quasi-stazionarietà o stazionarietà, che ha luogo durante un tempo maggiore di quello necessario alla sua rilevazione da parte dell'unità analitica). Quindi, se a questo livello di comprensione possiamo sostenere che tali processi esistono, allora effettivamente possiamo limitarci ai modelli AR... Ma, come si può già intuire, questi processi non si ripetono e siamo costretti a "preparare" ogni volta in anticipo un modello AR con una non linearità che corrisponderebbe a ciò che ci si aspetta nel mercato! Questa è una sciocchezza. È per questo motivo che una Rete Neurale non lineare addestrata su ogni evento, piuttosto che una volta al mese (come suggerito qui) è lo strumento più adeguato per identificare e battere gli eventi in un mercato quasi efficiente in modo tempestivo.

Non sto sostenendo che NS sia in grado di fare soldi sul mercato (il profitto medio supera la commissione DC). Sto solo sostenendo che NS è lo strumento più adeguato oggi, che dovrebbe costituire la base di TS. Io sostengo che l'unico modo per ottenere un vantaggio tra dispositivi simili, è la tecnica del sovraapprendimento su ogni evento. È un tentativo di massimizzare la "spremitura" dei potenziali che sono nascosti nel NS e, di conseguenza, un tentativo di massimizzare la spremitura dei modelli del kotir.

Mathemat ha scritto >>.

La questione di cosa immettere, di quale uscita allenare e di quale dovrebbe essere l'architettura della rete è tutta un'altra questione. È qui che le tue domande "in profondità" sarebbero utili.

Alexey, sempre giusto.

In effetti, non c'è nulla di segreto nel sapere come costruire correttamente una NS e allenarla. È un sensale che un ricercatore che si rispetti dovrebbe conoscere. Sono le basi!

La conoscenza sacra inizia esattamente con la preparazione dei dati di input e la definizione della funzione target per il NS. Questo non sarà discusso qui per ragioni di principio. In questo campo della conoscenza, ognuno è un creatore e un artista. Porta soldi e divertimento. E non è certo un'ora di bar! Che sono mostrati in questo thread solo come un aiuto visivo e per discutere ciò che è meglio - "guardare o 15 minuti" - può essere solo per interesse accademico.

 
Infine, il mio singolo strato non dipende più dal numero di epoche (più di alcune entro le 100). Il blocco delle statistiche aiuta certamente molto, ma ci sono alcune domande. Se non vi dispiace, contattatemi di persona.
 
E se non ho voglia di passare attraverso un messaggio privato, puoi postare la domanda qui?
 
Naturalmente. Faccio qualche grafico.
Motivazione: