Galateo del mercato o buone maniere in un campo minato - pagina 32

 
paralocus писал(а) >>

È possibile, ma non è conveniente, perché ogni successiva chiamata a Comment() "intaserà" i risultati dell'uscita precedente, poiché verrà eseguita utilizzando le stesse coordinate grafiche della precedente. Ecco perché Print() è meglio;

Paralocus, installa Matkad e non preoccuparti dell'interfaccia. Esegui il debug della mesh e implementala nel tuo MKL.

Risparmierete un sacco di tempo, anche con l'adattamento al nuovo ambiente.

 

L'ho comprato proprio ieri. Lo sto installando ora, perché il buon MQL mi ha davvero lasciato perplesso!

Ma la griglia sta imparando in 3 epoche a giudicare dal dump delle scale e sembra essere senza glitch:

------------------------------------------------------------------------------------------------------------------------

SCALE DI DUMP

------------------------------------------------------------------------------------------------------------------------

2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 |-0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1 | 6.0564 | 1.1419 | 0.1999 | 0.2118 | -0.11 | -0.821 | -0.4656 | -0.1458 | -0.037 | 0.0564 | 0.7267 | -0.1584
2009.05.22 18:17:48 Nero AUDUSD,M30: W : 0.1164 | 3.5091 | 1.2495 | 0.3147 | 0.3362 | 0.0168 | -0.6902 | -0.8039 | -0.0126 | 0.0312 | 0.1206 | 0.8339 | -0.0615
 

Questo è tutto! Matcad è stato installato. Lo conoscerò questo fine settimana.

Neutron, "...eppure gira!" Il singolo strato funziona, impara. È solo che ho provato a portarlo su M30, e lì - sapete cosa sono gli "schemi".

Ma su H4 - guarda cosa fa. E, cosa interessante, fate attenzione al numero di input e al numero di epoche:

Qui D=7, 24 epoche:



E qui D = 5, anche 24 epoche:


 
Neutron >> :

No, Petya ha strappato tutti i cespugli del cortile - gli è stato chiesto di trovare la radice quadrata:-)

E Vasily Ivanovich stava affilando la sua pedina - gli fu chiesto di dividere un monominante per un polinominante...

 
paralocus писал(а) >>

Questo è tutto! Matcad è stato installato. Farò conoscenza questo fine settimana.

Neutrone, "...eppure gira!" . È un singolo strato, sta imparando. Ho appena provato a portarlo su M30, ma sapete quali sono le "regolarità" lì.

Ma su H4 - guarda cosa fa. E ciò che è interessante, fate attenzione al numero di voci e al numero di epoche:

Qui D = 7, 24 epoche:

E qui D = 5, anche 24 epoche:

Congratulazioni per averla fatta funzionare!

In realtà, non si dovrebbe fare alcun rumore su M30... Se l'idea funziona, funzionerà anche su M5. E un'altra domanda, il risultato con M5 non sarebbe più alto in totale che con H4. Recentemente stavo confrontando H1 e M5 (vedi thread sopra) - a M5 ho raccolto più della metà di quello che a H1 sulle stesse 10.000 barre. E il fattore tempo, come sapete, è 12...

Non sono mai riuscito a ottenere un risultato ragionevole su M1.

 
YDzh >> :

Ho recentemente confrontato H1 e M5 (vedi sopra nel thread) - su M5 ho raccolto più della metà di quello che ho raccolto su H1 sulle stesse 10.000 barre. E il fattore tempo, come sapete, è 12...

Sul fatto che il "rapporto della curva" sia uguale a 12, ho grandi dubbi: confronta le "lunghezze" della curva di chiusura su questi TF. Prima dell'esperimento del modello ho pensato che dovrebbero differire di un fattore di circa sqrt( 12 ). In linea di principio sono approssimativamente così, ma ci sono comunque delle differenze (soprattutto se i periodi sono molto diversi). Hearst deve aver fatto delle ricerche qui. Ecco il codice (_bars - numero di barre della storia su un periodo poco profondo):


extern int _grosserPeriod = PERIOD_H1;
extern int _lesserPeriod  = PERIOD_M5;
extern int _bars          = 100000;


int lesser2grosser( int sh )
{
   int dt = iTime( NULL, _lesserPeriod, sh );
   return( iBarShift( NULL, _grosserPeriod, dt, false ) );
}


double len( int from, int period )
{
   double sum = 0;
   for( int i = 0; i < from; i ++ )    
      sum += MathAbs( iClose( NULL, period, i ) - iClose( NULL, period, i + 1 ) );
   return( sum );
}


int start()
{
   double ratio = len( _bars, _lesserPeriod ) / len( lesser2grosser( _bars ), _grosserPeriod );
   double ratioSquared = ratio * ratio;
   int periodsRatio = _grosserPeriod / _lesserPeriod;
   double one = ratioSquared / periodsRatio;
   Print( "one equals " + one );
   return( 0 );
}
//+------------------------------------------------------------------+
 

Ciao Alexey, non so di quali curve stai parlando? Spiega, se non ti dispiace, per favore.

A proposito, come va con le fibre?

A YDzh non mi piacciono affatto i timeframe... Niente affatto. Li uso solo per l'inevitabilità di questo male per me, a questo livello delle mie conoscenze e competenze. Tuttavia, ho i risultati del mio esperimento:

La mia griglia ha solo due parametri esterni - il numero di ingressi e il numero di epoche di apprendimento. La griglia è monostrato, auto-apprendimento, e lavora su una serie di prime differenze da OPEN. Così, avendo il sospetto, come dice Neutron, che "la mia ragazza" sia fortemente dipendente dalla sovrapposizione di questi due parametri, l'ho inserita ieri nell'ottimizzatore per dare un'occhiata...

L'ottimizzatore si è scervellato per circa un'ora e mi ha dato solo 8 risultati! Non era difficile vedere il migliore tra loro. Ma non ci sono risultati per TF 30. Cioè non c'è (entro un centinaio) un tale numero di ingressi (per questa griglia) e un tale numero di epoche di allenamento che non permetterebbe alla griglia di fallire. E quindi la domanda retorica "...sarà o non sarà meglio su M5 che su H4" dovrebbe essere considerata nel contesto della Teoria della Relatività Generale - cioè per chi (cosa)... sarà? Per la mia griglia non lo farà - sicuramente no, ma per la tua potrebbe essere la migliore...

 

Attualmente sto lavorando alle statistiche per il mio 2 strati. Si scopre che sui quozienti, l'NS determina ancora meglio il segno del movimento atteso se i pesi sono mantenuti da un'epoca all'altra. Secondo i risultati degli esperimenti, risulta circa il 20% contro il 23% di indovinelli corretti. La differenza, naturalmente, non è grande, ma considerando che questa percentuale va fino al 4 ° grado in redditività di TS ... - vale molto. L'effetto diventa evidente se i pesi da epoca a epoca sono passati attraverso w=g*th(w), dove g è un coefficiente dell'ordine di 0,005 piuttosto che 1.

 
Neutron >> :

L'effetto diventa evidente se i pesi da epoca a epoca sono passati attraverso g*th(), dove g è un coefficiente dell'ordine di 0,005

Sento nell'istinto che ci sono dei "limiti" abbastanza certi al cambiamento dei pesi... ma non ho abbastanza conoscenze per formularla correttamente. Cioè, so che in questo "luogo" il peso non è così importante come la posizione relativa dei pesi (di un particolare neurone) sull'asse numerico, se questo potesse essere in qualche modo sondato... allora, in caso di successo, potremmo dire che se il neurone unitario con ingressi D è allenabile in linea di principio (sul vettore dato), può essere allenato in modo ottimale nell'intervallo di pesi -/+1, o +/-U, dove U = F(D). Allora potrebbe emergere un paradigma di apprendimento completamente diverso, "biologico". La mia speculazione intuitiva su questo è in parte confermata dai vostri risultati sull'uso di g*th(). In effetti, di epoca in epoca si corregge tutti i pesi in uno stallo di qualche valore empirico, non permettendo loro di disperdersi nella distesa dell'asse numerico.

 
Belle parole!
Motivazione: