Utilizzo delle reti neurali nel trading. - pagina 12

 
registred >> :

... Cosa, nessuno ha mai risolto il problema delle reti neurali nel forex?

Perché nessuno?

Quelli che hanno deciso, stiano zitti :)

1.

2.

E il resto deve lavorare con neuroni proteici :(

 
goldtrader >> :

Perché nessuno?

Quelli che hanno deciso tacciono :)

1.

2.

E il resto deve lavorare con neuroni proteici :(

Quindi quello che state discutendo qui è inutile, si scopre infatti... Personalmente non ho usato i neuroni nel forex, ho avuto a che fare con loro per altre questioni. Mi piacerebbe provarli per il commercio, per così dire, ma non ho ancora tempo. Ecco perché non posso dire nulla in relazione al Forex. Addestrare una rete è una cosa molto complessa. Voglio dire che spesso è molto difficile trovare una generalizzazione qualitativa, naturalmente, dobbiamo eseguire un sacco di esperimenti aumentando il numero di neuroni nello strato nascosto, aumentando la dimensione del campione, guardare come la rete è intrappolata in un minimo locale poco profondo e cercare di tirarla fuori da lì. E dopo tutto questo può succedere che non succeda niente. In generale, sono in realtà un sacco di difficoltà.

 
registred >> :

Quindi quello di cui state discutendo qui è inutile, risulta davvero...

Nel mio post sopra, ai numeri 1 e 2, ci sono dei link che non hai seguito, a giudicare dalla tua risposta.

Gli EA a rete neurale fanno trading lì.

NS non è lo strumento più facile per fare profitti nei mercati finanziari, ma funziona bene nelle mani giuste.

 
goldtrader >> :

Nel mio post sopra, ai numeri 1 e 2, ci sono dei link che non hai seguito, a giudicare dalla tua risposta.

È qui che i consulenti di reti neurali commerciano.

NS non è lo strumento più facile per fare profitti sui mercati finanziari, ma funziona bene in mani abili.

Lo ero, ci bazzico spesso su euroflood. Ho i miei sistemi di previsione, non sono basati su reti neurali. In realtà le reti neurali sono solo un argomento interessante. So all'incirca quello che vorrei da una rete, è solo che, come ho detto, non ho ancora tempo per tutta questa programmazione. Per di più, sono contento del mio sistema finora. La difficoltà sta nell'impostare tutta questa rete neurale. Come ho detto, ci vuole troppo tempo per imparare. Io applicherei altre cose rispetto al metodo di ottimizzazione a gradiente.

 
registred писал(а) >>

Io applicherei altre cose oltre al metodo di ottimizzazione a gradiente.

Se non è un segreto, quale?

 
registred писал(а) >> La formazione della rete è una cosa molto complicata. Si può rendere una rete sovrallenata, sottoallenata, cioè è spesso difficile trovare una generalizzazione qualitativa, bisogna fare molti esperimenti aumentando il numero di neuroni in uno strato nascosto, aumentando la dimensione del campione stesso, guardare come la rete entra in un minimo locale poco profondo e cercare di tirarla fuori da lì. E dopo tutto questo può succedere che non succeda niente. In generale, c'è effettivamente molta complessità con loro.

Questa è praticamente una cosa fondamentale per le reti neurali. Ho cercato di sollevare questo problema, ma a quanto pare non sono in molti ad essere interessati. Più interessato all'architettura e alla sofisticazione delle reti neurali, anche se proprio questa domanda è stata risolta molto tempo fa e a quanto pare non ha senso inseguirla. L'aumento dei neuroni in uno strato nascosto porta all'aumento della dimensione del campionamento - l'aumento della dimensione del campionamento porta al sotto-addestramento della rete poiché ci sono troppe regole su un campionamento storico più grande che la rete non può capire e imparare. Come risultato, si blocca in qualche minimo locale da cui è impossibile uscire - è in overlearning o underlearning. È più probabile che sia sovrallenato. Di conseguenza, aumentare il numero di neuroni influisce negativamente sul funzionamento della rete neurale in futuro.

 
LeoV писал(а) >>

Questa è praticamente una cosa fondamentale per le reti neurali. Ho cercato di sollevare questo problema, ma a quanto pare non sono in molti ad essere interessati. Più interessato all'architettura e alla sofisticazione delle reti neurali, anche se proprio questa domanda è stata risolta molto tempo fa e a quanto pare non ha senso inseguirla. L'aumento dei neuroni in uno strato nascosto porta all'aumento della dimensione del campione - l'aumento della dimensione del campione porta al sotto-addestramento della rete perché ci sono troppe regole su un campione storico più grande che la rete non può capire e imparare. Come risultato, si blocca in qualche minimo locale da cui è impossibile uscire - è in overlearning o underlearning. Il sovraapprendimento è più probabile. Di conseguenza, l'aumento del numero di neuroni influisce negativamente sul funzionamento di neuronet in futuro.

Come praticante esperto, hai trovato i limiti? Qual è secondo voi la dimensione ottimale del set di allenamento, la struttura e il numero di input?

 
StatBars >> :

Se non è un segreto, qual è?

Se prendete le reti neurali, le reti neurali con approssimazione kernel sono migliori, imparano rapidamente.

 
LeoV >> :

Questa è praticamente una cosa fondamentale per le reti neurali. Ho cercato di sollevare questo problema, ma a quanto pare non sono in molti ad essere interessati. Più interessato all'architettura e alla sofisticazione delle reti neurali, anche se proprio questa domanda è stata risolta molto tempo fa e a quanto pare non ha senso inseguirla. L'aumento dei neuroni in uno strato nascosto porta all'aumento della dimensione del campione - l'aumento della dimensione del campione porta al sotto-addestramento della rete poiché più campioni storici contengono troppe regole che la rete non può capire e imparare. Come risultato, si blocca in qualche minimo locale da cui è impossibile uscire - è in overlearning o underlearning. È più probabile che sia sovrallenato. Di conseguenza, l'aumento del numero di neuroni influisce negativamente sul funzionamento della rete neurale in futuro.

La rete trova quasi sempre un minimo locale, di solito è abbastanza profondo e minimamente necessario per risolvere un dato compito. Per quanto riguarda lo strato nascosto, tutto dipende dalla dimensionalità dei parametri di input, che rappresentano essenzialmente la complessità di un problema da risolvere. Cioè non ci possono essere abbastanza neuroni nello strato nascosto, o non ci possono essere abbastanza esempi per una data dimensionalità degli input. In una parola, è necessario condurre prove, aumentando gradualmente il numero di neuroni nello strato nascosto dal 1° neurone e così via, fino a raggiungere l'errore di generalizzazione richiesto.

 

Supponiamo di avere qualche dipendenza monoparametrica, come y(x)=F(x), dove la forma generale di questa dipendenza F ci è sconosciuta e che genera la serie dei prezzi, o meglio, la dipendenza dell'incremento di prezzo atteso dalla lettura di alcuni dei nostri indicatori. In questa situazione possiamo assumere che la dipendenza sia lineare, per esempio, e conoscendo diversi valori precedenti degli incrementi di prezzo y[i] e delle letture degli indicatori x[i], possiamo facilmente risolvere il problema della ricerca dell'approssimazione lineare ottimale (nel senso della minima deviazione) della legge sconosciuta F tramite il polinomio di primo grado y(x)=a*x+b . Poi, i coefficienti a e b sono ricercati con il metodo dei minimi quadrati e sono uguali:

Possiamo andare oltre, e approssimare la dipendenza sconosciuta (legge) con un polinomio di secondo grado y(x)=a2*x^2+a1*x+a0 o anche nono! Ma tutto questo è per la funzione di una variabile o, nel nostro caso, di un indicatore... Se ci aspettiamo di usare due indicatori, ottenere la soluzione analitica per l'approssimazione dei dati di input per piano (funzione di due variabili) è già più difficile, e non possiamo più trovare l'espressione analitica per la superficie di n-esimo ordine più vicina a F(x1,x2) in caso di grado crescente del polinomio. Ma questo problema è facilmente risolto da NS con due ingressi x1,x2, uno strato nascosto e abbastanza neuroni in esso. Inoltre, aumentiamo il numero di input a 10-20 e abbiamo una superficie di gipper di ordine arbitrario in uno spazio caratteristico di 10-20 dimensioni - è un sogno!

Infatti la nostra percezione del mondo circostante si basa sullo stesso principio - costruiamo inconsciamente alcune superfici-gipper nella nostra testa, che riflettono la realtà - la nostra esperienza in modo ottimale. Ogni punto su tale foglio-superficie immaginario è una decisione responsabile in una o un'altra situazione di vita, non sempre precisa, ma quasi sempre ottimale...

Giusto! Mi sto facendo trasportare un po'. In breve, è difficile, se non impossibile, pensare a qualcosa di meglio di Neuronka per l'analisi dei prezzi, tranne che per le informazioni privilegiate.

Motivazione: