Cosa inserire nell'ingresso della rete neurale? Le vostre idee... - pagina 80

 
Ivan Butko #:


Cos'è questo programma?

 
Andrey Dik #:

Cos'è questo programma?

Stavo cercando di convincere la chat a eseguire un NS python sulla mia RTX 3080. Mi ha proposto un ambiente di sviluppo: Jupiter, GoogleCollab, Idle o Spider.

Mi piace l'aspetto di Spider, ci eseguo gli script del modello
 
La mia previsione è che l'unico modello che sarà in grado di operare con un profitto stabile per lungo tempo è la collaborazione CNN + BiLSTM + MLP.

Lereti convoluzionali saranno dedotte meglio
 
La mia previsione è che l'unico modello che sarà in grado di ottenere profitti stabili per lungo tempo è la collaborazione CNN + BiLSTM + MLP.

1) Le reti convergenti saranno migliori nell'estrazione di modelli e nella generalizzazione. In altre parole, effettueranno una pre-elaborazione dei dati di ingresso.

2) Quelle ricorrenti lavoreranno con dati già ripuliti dalla spazzatura e il loro modulo di stato precedente si adatterà al mercato in evoluzione.

3) Il perceptron multistrato imparerà semplicemente le regole di trading dai dati opportunamente elaborati. In fondo, è il più meticoloso di tutti e tre.


In caso di forti cambiamenti nel comportamento di una coppia di valute, le reti di ricorrenza non vi faranno defluire rapidamente, ma porteranno gradualmente il trade in piano, il che darà il segnale per una nuova formazione dell'intero sistema.


Questa è la mia opinione soggettiva basata sulla mia comprensione di questi metodi.

Non ho ancora fatto girare correttamente questo pacchetto nelle mie mani.

Anche in questo caso, considerando che tutti questi metodi sono stati discussi centinaia di volte da professionisti, potrei sbagliarmi. D'altra parte, ci siamo allontanati dalla previsione standard della prossima candela, che di solito viene fatta negli articoli, a favore della lucidatura del TS. E forse questo darà una svolta.
[Eliminato]  
Ivan Butko reti convergenti saranno migliori nell'estrazione di modelli e nella generalizzazione. In altre parole, effettueranno una pre-elaborazione dei dati di ingresso.

2) Quelle ricorrenti lavoreranno con dati già ripuliti dalla spazzatura e il loro modulo di stato precedente si adatterà al mercato in evoluzione.

3) Il perceptron multistrato imparerà semplicemente le regole di trading dai dati opportunamente elaborati. In fondo, è il più meticoloso di tutti e tre.


In caso di forti cambiamenti nel comportamento di una coppia di valute, le reti di ricorrenza non vi faranno defluire rapidamente, ma porteranno gradualmente il trade in piano, il che darà il segnale per una nuova formazione dell'intero sistema.


Questa è la mia opinione soggettiva basata sulla mia comprensione di questi metodi.

Non ho ancora fatto girare correttamente questo pacchetto nelle mie mani.

Anche in questo caso, considerando che tutti questi metodi sono stati discussi centinaia di volte da professionisti, potrei sbagliarmi. D'altra parte, ci siamo allontanati dalla previsione standard della prossima candela, che di solito viene fatta negli articoli, a favore della lucidatura del TS. E forse questo darà una svolta.
Queste sono tutte sciocchezze, ma la domanda è un'altra.
Il TS-donatore si aggiunge anche al forward)?
 
Ivan Butko #:

Il problema dei numeri.

... Ma si dà il caso che i dati in ingresso portino già un fattore di forza di fronte al loro valore quantitativo. ...


I campioni, ciascuno degli n numeri, somministrati agli ingressi X[0 ... n-1] nel processo di addestramento, devono essere preaddestrati (normalizzati) in modo tale che siano uguali tra loro, a parità di altre condizioni.


Nel contesto in cui il valore Y all'uscita di un neurone abbinato è la somma di X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1], questa equivalenza può essere ottenuta in un solo modo:

Le somme dei valori |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| in tutti i campioni di addestramento devono essere uguali.

Dove W[n] viene considerato come "altra condizione di uguaglianza" uguale a X[n].

Cioè, tenendo già conto dell'"altra condizione di uguaglianza", due campioni sono numericamente equivalenti se le loro somme X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 sono uguali.


Ad esempio :

Se alcune sezioni di prezzo con i suoi incrementi X[n][k]=chiusura[n][k]-apertura[n][k], dove n è il numero di valori di X e k è il numero di campioni, vengono utilizzate come bagaglio di campioni di addestramento,

allora la somma dei valori |X[0][k]| + |X[1][k]| |X[2][k]| + ... + |X[n-1][k]| denota la lunghezza della curva percorsa dal prezzo all'interno di un dato campione k.

In altre parole, i campioni di addestramento k devono essere pre-normalizzati tra loro, nel senso fisico di questo esempio, letteralmente in base alla lunghezza del percorso della curva del prezzo.

A questo punto è possibile (e necessario) eseguire un'altra normalizzazione, nell'intervallo non inferiore/non superiore a -+1, dividendo tutti gli X[n][k] per max, dove max è il massimo |X[n][k]| trovato tra tutti gli X[n][k].

Quindi, nel processo di apprendimento, questi campioni normalizzati X[0 ... n-1][k] vengono alimentati come campioni di addestramento, ognuno dei quali ha il proprio punteggio d[k], che determina il contributo di questo campione al risultato aggregato dell'apprendimento.


Ancora una volta :

Suppongo che l'addestramento non debba essere fatto con tutti i campioni k disponibili, ma solo con quelli che hanno un punteggio "decente" (uso questa parola) d[k].

Tuttavia, per ottenere un campione "degno", abbiamo ancora bisogno di tutti i campioni k con i loro punteggi d[k].

Ma questo è un altro argomento...

 
Maxim Dmitrievsky #:
Il donatore di TC è anche più avanti)?



Ho assolutamente descritto la teoria: lo scopo di NS è quello di filtrare i TS approssimativi che mostrano qualcosa.







E ho descritto l'approccio: cercare manualmente qualsiasi TS che mostri almeno qualche risultato e filtrarlo con NS. Ecco il TS originale.

Non adatto al trading, ma che mostra segni di vita .


Ed ecco lo stesso, solo filtrato da Python NS: LSTM-key.

 
Evgeny Shevtsov #:


I campioni, ciascuno di n numeri, somministrati agli ingressi X[0 ... n-1] durante l'addestramento, devono essere preaddestrati (normalizzati) in modo che siano uguali tra loro, a parità di altre condizioni.


Nel contesto in cui il valore Y all'uscita di un neurone abbinato è la somma di X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1], questa equivalenza può essere ottenuta in un solo modo:

Le somme dei valori |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| devono essere uguali per tutti i campioni di allenamento.

Dove W[n] viene considerato come "altra condizione uguale" uguale a X[n].

Cioè, tenendo già conto dell'"altra condizione di uguaglianza", due campioni sono numericamente equivalenti se le loro somme X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 sono uguali.


Ad esempio :

Se alcune sezioni del prezzo in base ai suoi incrementi X[n][k]=chiusura[n][k]-apertura[n][k], dove n è il numero di valori di X e k è il numero di campioni, vengono utilizzate come pacchetto di campioni di formazione,

allora la somma dei valori |X[0][k]| + |X[1][k]| |X[2][k]| + ... + |X[n-1][k]| indica la lunghezza della traiettoria della curva percorsa dal prezzo all'interno di un dato campione k.

In altre parole, i campioni di formazione k devono essere pre-normalizzati l'uno all'altro, nel senso fisico di questo esempio, letteralmente in base alla lunghezza del percorso della curva del prezzo.

Ora è possibile (e necessario) eseguire un'altra normalizzazione per loro, nell'intervallo non inferiore/non superiore a -+1, dividendo tutti gli X[n][k] per max, dove max è il massimo |X[n][k]| trovato tra tutti gli X[n][k].

Quindi, nel processo di apprendimento, questi campioni normalizzati X[0 ... n-1][k] vengono alimentati come campioni di addestramento, ognuno dei quali ha il proprio punteggio d[k], che determina il contributo di questo campione al risultato aggregato dell'apprendimento.


Di nuovo :

Ritengo che l'addestramento non debba essere eseguito con tutti i campioni k disponibili, ma solo con quelli che hanno un punteggio "decente" (uso questo termine) d[k].

Tuttavia, per creare un campione di campioni "degni", abbiamo ancora bisogno di tutti i campioni k con i loro punteggi d[k].

Ma questo è un altro argomento...



Lei scrive in modo interessante È qui che nasce la dissonanza con la teoria dei numeri problematici:

E ora è possibile (e necessario) eseguire un'altra normalizzazione per loro, sotto l'intervallo almeno / al massimo -+1, dividendo tutti gli X[n][k] per max, dove max è il massimo |X[n][k]| trovato tra tutti gli X[n][k].
Dopo la normalizzazione, ogni ghirigoro è descritto da un numero quantitativo, che influisce sul risultato finale di NS quanto più il suo valore è grande. In effetti, una traiettoria "outlier" può non essere un modello, ma avrà il numero più "pesante".

Irragionevole e ingiustificato: in fondo, prescrivere una "forza" a un pattern equivale a trovare un Graal, grosso modo. Non c'è bisogno di NS, basta prendere i pattern con l'indice di potenza (numerico) più alto, combinarli con un altro pattern simile e aprire una posizione, perché secondo questa logica la probabilità di vincere è presumibilmente più alta.



Ecco perché volevo allontanarmi dai numeri, o trovare un metodo che in qualche modo attribuisse oggettivamente (il più oggettivamente possibile) una certa potenza a un pattern, che in un certo contesto (miscela con altri pattern) desse un'alta probabilità di funzionare. Poi c'è un senso di pre-elaborazione.
 
Ivan Butko #:

Il problema dei numeri.

...

...


...E il peso, che cercherà di indebolire (annullare) il valore di ingresso 0,9, indebolirà anche(!) più fortemente(!) gli altri valori nell'intervallo inferiore di questo numero di ingresso (che in seguito potrebbero essere più importanti per le prestazioni del sistema), a causa della sua natura statica, perché i pesi non cambiano in un NS addestrato.
...
...


Evgeny Shevtsov#:

Campioni, ciascuno degli n numeri, somministrati agli ingressi X[0 ... n-1] durante l'addestramento, dovrebbe essere pre-addestrato (normalizzato) in modo tale da essere uguale l'uno all'altro, a parità di altre condizioni.

...

Ancora :

Credo che l'addestramento non debba essere fatto con tutti i campioni k disponibili, ma solo con quelli che hanno un punteggio "decente" (uso questo termine) d[k].

Tuttavia, per creare un campione di campioni "degni", abbiamo ancora bisogno di tutti i campioni k con i loro punteggi d[k].

...


Una delle possibilità (è solo un esempio) di formalizzare le informazioni su un grafico in un numero non di termine (dotandole di un fattore di forza oggettivo rispetto ad altre informazioni grafiche) è rappresentata dai livelli di supporto e di resistenza. Supponiamo che siano formalizzati. Il prezzo rimbalza o li attraversa.

In questo caso, i numeri che indicano ogni prezzo successivo sul grafico saranno la stessa finestra MinMax, solo che il valore massimo sarà proprio questo livello di C/R. Se il prezzo è vicino ad esso - allora 0,9 (-0,9) e più vicino a 1.




Se il prezzo è lontano da esso, è più vicino a 0. Se un prezzo si trova su un lato del livello e l'altro sull'altro lato, allora cambiamo la polarità di ciascun lato: sul lato più vicino al livello - questi sono massimi negativi, e sull'altro lato - massimi numerici positivi. Questo è solo uno schizzo, un esempio di ciò che i numeri dovrebbero essere.


Non si tratta solo di una posizione rispetto ad altri numeri nella finestra, ma di un riflesso di un contesto di mercato. Un'altra opzione: esprimiamo i modelli attraverso i numeri. Qui abbiamo un pattern candlestick A di una candela, dopo il quale il prezzo sale 55 volte su 100 nello storico. Il pattern successivo AB (combinazione di 2 candele) è seguito da 48 rialzi e 52 ribassi.

La terza combinazione di candele ABC (combinazione di tre candele) produce 53 rialzi e 47 ribassi. E qui abbiamo un pattern con un sovrappeso storico verso l'alto, l'altro verso il basso, il terzo verso l'alto: 5, -1, 3. Combiniamo in una finestra, normalizziamo nell'intervallo -1..1 e avremo dei numeri per l'input del NS:



1, -1 e0,4286. Questo è un esempio del fatto che il fattore quantitativo, essendo decisivo per il NS matematico, porta con sé informazioni oggettive sul mercato e il compito del NS è quello di scegliere quali di queste informazioni oggettive possono essere utili per un trading stabile. E non di estrarre freneticamente qualcosa dalla spazzatura assoluta, che è l'insieme numerico medio per l'input del NS.

[Eliminato]  

Normalizzazioni L1, L2. (regolarizzazioni) sono descritte. Di solito sono già integrate nel MO.

Se ci sono molti più rifiuti che buoni esempi (il che è tipico di un set di dati forex), nessun approccio sarà utile.