L'uso dell'intelligenza artificiale in MTS - pagina 21

 
Mak:
IMHO, non vale la pena di scherzare con le reti :)

Imparare NS significa in realtà ottimizzare una funzione con un numero enorme di parametri (centinaia e migliaia).
Non so cosa fare per evitare il sovrallenamento in questo caso,
L'unica soluzione è prendere un campione di allenamento di 1-100 milioni di campioni.
Ma non c'è nessuna garanzia...
Quindi intendi "sovrallenamento" come "sottoallenamento"? mi sembra che siano antonimi =) chiarisci per favore.
 
Meglio classificare le maglie che interpolare le maglie.
Non l'ho letto, per favore spiega la differenza tra loro, se puoi, fai un esempio di come funziona ognuno, puoi usare termini generici =)
 
Mak:
Aleksey24:

Domanda per i matematici:

L'idea di applicare una distribuzione normale multivariata dei parametri da ottimizzare è uguale al principio delle reti neurali?

Per favore, lo spieghi chiaramente.

È una strana domanda da fare.
Spiegare la domanda.


SPIEGARE:

Ora penso che sia necessario commerciare non con specifici parametri montati, ma con lo spettro di ogni parametro nel sistema.
Il modo più semplice è quello di mettere diversi EA identici, ma con diversi set di parametri - in diverse gamme dello spettro dei parametri.
Ad ognuno di questi Expert Advisor dovrebbe essere assegnata una certa % del deposito, ma tutti dovrebbero essere uguali al valore percentuale del deposito, quando si fa trading usando un solo Expert Advisor (senza spettro).
Poi se sulle medie mobili tre Expert Advisors aprono tre posizioni, rispettivamente all'inizio del movimento, a metà e alla fine.

Non posso ancora decidere come utilizzare questa idea in un EA per i test.

Ho chiesto a Posh di questo problema ma ancora nessuna risposta.

Il compito della distribuzione normale multivariata (gaussiana) e le reti neurali di tipo aX+bY+...=Z sono lo stesso (per il trading), o sono confuso e mi confondo nella mia testa?
 
Aleksey24:
Mak:
Aleksey24:

Domanda per i matematici:

L'idea di applicare una distribuzione normale multivariata dei parametri da ottimizzare è uguale al principio delle reti neurali?

Per favore, lo spieghi chiaramente.

È una strana domanda da fare.
Spiegare la domanda.


SPIEGARE:

Ora penso che sia necessario commerciare non con specifici parametri montati, ma con lo spettro di ogni parametro nel sistema.
Il modo più semplice è quello di mettere diversi EA identici, ma con diversi set di parametri - in diverse gamme dello spettro dei parametri.
Ad ognuno di questi Expert Advisor dovrebbe essere assegnata una certa % del deposito, ma tutti dovrebbero essere uguali al valore percentuale del deposito, quando si fa trading usando un solo Expert Advisor (senza spettro).
Poi se sulle medie mobili tre Expert Advisors aprono tre posizioni, rispettivamente all'inizio del movimento, a metà e alla fine.

Non posso ancora decidere come utilizzare questa idea in un EA per i test.

Ho chiesto a Posh di questo problema ma ancora nessuna risposta.

Il compito della distribuzione normale multivariata (gaussiana) e le reti neurali di tipo aX+bY+...=Z sono lo stesso (per il trading), o sono confuso e mi confondo nella mia testa?
Stai parlando di qualcosa di complicato con gli spettri! Ecco le risorse sul tema dell'RNA che ho usato per studiare:
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8 - è sul wiki ed è tutto a grandi linee.
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - c'è un articolo su ANN, e al centro dell'articolo c'è una discussione su dove viene e di cosa si tratta, con diagrammi e formule.
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - questo è un link a "Fundamentals of Artificial Neural Networks", un buon sito, c'è un intero "albero" sul tema delle RNA - non solo quello che ho scritto.
 
Grazie per i link, darò un'occhiata.
Ma riguardo agli "spettri", ti sbagli.
Non sono un proFessore, naturalmente - ma lì c'è un punto razionale.
 
Gente, nessuno mi ha risposto: è necessario pensare all'algoritmo dell'oblio o è, in fondo, una proprietà naturale dell'RNA?
 
lucifuge:
Gente, nessuno mi ha risposto: è necessario pensare all'algoritmo dell'oblio o è, in fondo, una proprietà naturale dell'RNA?

Se si limita l'allenamento a un numero finito di battute (o non battute, qualsiasi cosa si usi), l'oblio sarà un processo naturale. Il mercato sta cambiando, e quello che ha funzionato cinque anni fa potrebbe non funzionare ora. Ma le nuove condizioni sono già emerse, e se non le insegnate, passeranno.
Spetta a tutti decidere.
 
Mathemat:
Mak, stai chiaramente esagerando qualcosa. Invece di superarlo di centinaia o migliaia di volte, come dici tu, per la teoria di RNA 10 è sufficiente. E i criteri per il retraining (adattamento) sono noti: si tratta di un errore minimo globale nell'area di test.

Un'altra cosa è l'architettura di rete. Meglio classificare le maglie che interpolare le maglie.
Forse - sono scettico su NS.
Ebbene sì, in statistica si crede che si possano trarre delle conclusioni se il numero di campioni è 10 volte il numero di parametri sconosciuti, ma gli errori nel farlo sono al limite della ragionevolezza.

Ma dovreste essere d'accordo che NS è essenzialmente solo una funzione di un qualche tipo di vettore di input e un insieme di pesi.
Questo insieme di pesi contiene da centinaia (nei casi più semplici) a decine e centinaia di migliaia di parametri (pesi).
L'apprendimento di NS non è altro che l'ottimizzazione di questa funzione per queste centinaia - centinaia di migliaia di parametri.
Tutti sanno cosa succede in questi casi.
Ecco perché sono uno scettico ...
 
lucifuge:
Mak:
IMHO, non vale la pena fumare con le reti :)

Imparare NS significa in realtà ottimizzare una funzione con un numero enorme di parametri (centinaia e migliaia).
Non so cosa fare per evitare il sovrallenamento in questo caso,
L'unica soluzione è prendere un campione di allenamento di 1-100 milioni di campioni.
Ma non c'è nessuna garanzia...
Quindi intendi "sovrallenamento" come "sottoallenamento"? Penso che siano antonimi =) Per favore chiarisci.
Per sovrallenamento intendo quello che si chiama CurveFitting.
Si verifica quando ci sono molti parametri di ottimizzazione e pochi dati.
 
Mak:
lucifuga:
Mak:
IMHO, non vale la pena fumare con le reti :)

Imparare NS significa in realtà ottimizzare una funzione con un numero enorme di parametri (centinaia e migliaia).
Non so cosa fare per evitare il sovrallenamento in questo caso,
L'unica soluzione è prendere un campione di allenamento di 1-100 milioni di campioni.
Ma non c'è nessuna garanzia...
Quindi intendi "sovrallenato" come "sottoallenato"? Sono antonimi =) chiarisci, per favore.
Per sovrallenamento intendo quello che si chiama CurveFitting.
Si verifica quando ci sono molti parametri di ottimizzazione e pochi dati.

Ma questo solleva la questione della dimensione della rete. Ciò che una rete può memorizzare dipende dalle sue dimensioni e dalla sua architettura. Se si impostano troppi campioni da addestrare che la rete non può ricordare, si causerà l'effetto overlearning - la rete smetterà di riconoscere ciò che conosce.
Motivazione: