Per seguire - pagina 33

 

Riassumiamo il risultato intermedio.

Il ramo propone un paradigma di generazione e verifica delle strategie di trading che è fondamentalmente diverso da quello "standard" (secondo Pardo). In quella standard, la selezione della strategia ottimale viene eseguita tramite la scansione dei parametri FP della strategia stessa attraverso numerosi test sulla storia e l'ulteriore selezione dei punti FP che ottimizzano la strategia da cambiare. Nella proposta l'analisi ("blocco di analisi e intenzioni preliminari") non cambia in alcun modo, perché gli scambi rimangono al loro posto, e solo il contesto-filtro ("blocco decisivo") cambia.

In linea di principio, è possibile ottenere qualcosa di simile all'ottimizzazione qui, se impostiamo preliminarmente la forma richiesta dei vincoli del filtro di contesto (per esempio, tutti i punti del contesto FP dovrebbero essere all'interno di un "parallelepipedo multidimensionale" con coordinate variabili dei vertici). Ma questo sarebbe solo un caso particolare del raggruppamento che vogliamo ottenere.

Pertanto, nel nostro caso un ottimizzatore non è semplicemente necessario. È sufficiente un solo test con il filtro di contesto disattivato e l'uscita delle coordinate degli affari nel contesto FP, dopo di che possiamo eseguire il clustering del filtro con mezzi indipendenti.

Ho la seguente domanda: cosa ci rende così sicuri che il nuovo paradigma ci forniràuna maggiore solidità della strategia?

Supponiamo che nel trading successivo, nel trading reale, la sequenza di operazioni (ci atterremo alla variante del Candido) passata il nuovo contesto-filtro mostrerà un fattore di profitto piuttosto alto. Cosa può accadere che non sia così?

Forse, possiamo provare ad analizzare la struttura interna di un "cluster di contesti redditizi" da singoli trade - numerandoli, contrassegnando quelli redditizi e, diciamo, guardando come il trade è stato eseguito all'interno di questo cluster sulla storia? Se ci sono molti segmenti della traiettoria che contengono quasi esclusivamente operazioni perdenti all'interno di questo cluster, non va bene.

In breve, sono necessari almeno alcuni argomenti aggiuntivi per giustificare l'accettabilità del nuovo paradigma e per porre dei limiti al suo utilizzo.

 
Mathemat >>:

У меня следующий вопрос: откуда у нас такая уверенность в том, что новая парадигма обеспечит нам бо льшую робастность стратегии?

In generale non c'è certezza. Come, tuttavia, nel caso dell'approccio standard.

Suppongo che due cose siano necessarie per la robustezza di questa procedura:

- La zona ottimale deve essere reale. Cioè, non dobbiamo avere a che fare con una fluttuazione, ma con una dipendenza statisticamente valida.

- I parametri FP utilizzati devono essere essi stessi robusti. Cioè, se cambiano nel tempo, allora abbastanza lentamente.


Cioè, c'è molto lavoro da fare per trovare e verificare i parametri giusti. Il che non invalida l'utilità e le considerazioni teoriche.


P.S. Cambiando i parametri nel tempo, naturalmente, intendiamo cambiare la loro funzione di distribuzione.

 
Candid >>:

- Оптимальная зона должна быть реальной. То есть мы должны иметь дело не с флуктуацией, а со статистически достоверной зависимостью.

Beh, sì, se i confini esterni della zona ottimale sono gli stessi di un fiocco di neve, non si può contare su nulla di robusto.

La zona ottimale, se migra nello spazio FP, non dovrebbe farlo troppo bruscamente.

In breve, dovrebbe essere solido. Una specie di ipersfera, iperparallelepipedo o qualcosa di simile, che si muove a bassa velocità.

 

Forse dovrebbe essere così:

1) Determinare i punti di entrata ideali sulla storia tenendo conto dello spread, della massimizzazione del profitto, del numero di trade, del drawdown, ecc. (Sicuro al 100%, non sembrerà di gran lunga un zzz)

2) Usando le mappe di Kohonen o altri metodi, determinare la relazione delle offerte ricevute con il contesto attuale (letture di indicatori totali o altro)

3) Fai trading usando i modelli trovati.

 

Andrei, speri che le coordinate nello spazio del contesto identificate nel passo 2 ti permettano di entrare più accuratamente?

 
joo писал(а) >>

Forse dovrebbe essere così:

1) Determinare i punti di entrata ideali sulla storia tenendo conto dello spread, della massimizzazione del profitto, del numero di trade, del drawdown, ecc. (Sicuro al 100%, non sembrerà di gran lunga un zzz)

2) Usando le mappe di Kohonen o altri metodi, determinare la relazione delle offerte ricevute con il contesto attuale (letture di indicatori totali o altro)

3) Fai trading usando i modelli trovati.

Nessuna via d'uscita (l'ho provato io stesso)

Ci sono molte regolarità di diversa durata temporale + casualità, e ogni singolo punto di ingresso ideale può avere una causa in una o più regolarità mascherate dalla casualità. Come risultato di evidenziare il contesto, otteniamo solo un adattamento a questo mix casuale, piuttosto che evidenziare i modelli individuali e il contesto del loro uso. Ogni modello ha il suo contesto. imho.

 

C'è un'altra cosa qui - come il numero di parametri cresce, così fa la dimensionalità di FP. In seguito i requisiti per le statistiche degli affari crescono. Penso che già a 3 parametri si possa parlare di statistiche solo per il pipsing sfrenato :).

D'altra parte, è auspicabile avere parametri per il numero di gradi di libertà. Per sperare che ce ne siano solo 2 o 3, bisogna essere un ottimista completamente congelato. Imho, naturalmente. Anche se non c'è ancora un indicatore del numero di gradi di libertà.

Questa è la vera tragedia di qualsiasi approccio "oggettivo", compreso quello standard.

 

I parametri di confine della zona ottimale sono in un modo o nell'altro trasformati nei parametri latenti della ST stessa - non importa come sono ottenuti, con l'approccio standard o attraverso il clustering del contesto. Così, si scopre che non siamo ancora usciti dalla parametrizzazione di TC.

Circa 2-3 parametri: c'è la speranza che se il sistema entra principalmente in aree di tendenza, questi parametri saranno "quasi sufficienti", perché in tempi di catastrofi il numero di gradi di libertà del mercato probabilmente diminuisce notevolmente (diventa più semplice).

E in generale, non mi concentrerei sul numero di gradi di libertà. Non stiamo cercando una funzione che spieghi completamente il mercato, ma solo un TS più o meno robusto su di esso. Può essere sbagliato a volte (e sicuramente lo sarà!), ma possiamo sperare che 2-3 parametri siano sufficienti per la maggior parte dei casi.

 
joo писал(а) >>

Probabilmente entrambi. :)

Grazie per l'altro, è facile da fare:

Un quadrato di 500x500 punti = un totale di 250.000 punti. Ogni punto è disegnato da un oggetto "linea di tendenza" (non un raggio, ovviamente). Si usano linee orizzontali di lunghezza 1, cioè segmenti che collegano punti adiacenti. Perché non un oggetto punto? Perché un oggetto puntuale non può essere visto su un grafico. In base ai valori delle coordinate x e y viene calcolato il colore dell'oggetto. Così, ci sono 250.000 oggetti su quel quadrato, ognuno dei quali ha il suo colore. E MT4 può gestirlo senza problemi!

L'unica limitazione è che MT ha una serie limitata di stili grafici. Il valore massimo è 512. Significa che non si possono usare più colori di questo numero.

 
Mathemat писал(а) >>

Ho la seguente domanda: come possiamo essere così sicuri che il nuovo paradigma ci fornirà una strategiapiù solida?

Supponiamo che nel trading successivo, già nella vita reale, la sequenza di trade (atteniamoci alla variante di Candid) che hanno passato il nuovo filtro di contesto mostrerà un fattore di profitto abbastanza alto. Cosa può essere, che non sia così?

In breve, sono necessari almeno alcuni argomenti aggiuntivi per giustificare l'accettabilità del nuovo paradigma e per porre dei limiti al suo utilizzo.

Come sempre, il criterio della verità è la pratica. Al di fuori di esso, niente darà né certezza né validità.

Tuttavia, voglio ancora una volta prestare attenzione a questo momento. Il nuovo paradigma, come lo ha chiamato Alexey, è solo un'altra metodologia. Un approccio metodologicamente corretto può fornire un risultato positivo solo se si basa su punti di partenza corretti. (A proposito, l'approccio metodologicamente scorretto, che è il peccato dell'AT classica, non può fornire un risultato positivo nemmeno sul giusto punto di partenza. Quindi, è impotente e "impraticabile" sul mercato).

Usare la FP secondo la sua definizione e funzione è, imho, l'approccio metodologicamente corretto. Tuttavia, la metodologia da sola non produce un risultato positivo!

Dovrebbe essere basato su una coppia: sistema input-output - parametrizzazione FP. Questo è il fondamento giusto. Se anche un solo componente di questa coppia è sbagliato/inadeguato/dipendente, l'intero progetto non funzionerà.

Quindi non ha senso discutere la robustezza, l'accettabilità, la stabilità di questo paradigma in modo isolato dalle stesse proprietà del sistema di ingressi/uscite e dei parametri FP.

Mathemat ha scritto >>.

La zona ottimale, se migra nello spazio FP, non dovrebbe farlo troppo bruscamente.

In breve, dovrebbe essere solido. Una specie di ipersfera, iperparallelepipedo o qualcosa di simile, che si muove a bassa velocità.

Direi un iperellissoide, collega la radialità e le diverse scale lungo gli assi.

Tuttavia, se il cluster sta migrando lungo la FP, allora molto probabilmente il sistema di parametri FP è incompleto o i parametri stessi non sono scelti correttamente. IMHO

Motivazione: