L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 637

 
Alexander_K2:

:)))) In questo caso Sorcerer dovrebbe essere chiamato in aiuto :))))

L'unica cosa che posso dire è che è la non-entropia che è responsabile della tendenza/stato piatto. La tendenza è la "memoria" del processo, la sua "coda" di distribuzione e la non-entropia è enorme, mentre nello stato piatto è quasi 0. Me ne occupo solo io, ma capisco l'importanza di questo parametro poco studiato.

Niente può aiutarlo ora. Il cambio di tendenza/fleet, come un cucchiaio per la cena, dovrebbe essere buono nel tempo.

La linea rossa è quella effettiva. Syn.-modello. In questo esempio è tardi. Nella foto in basso, il modello è in ritardo.


 
Mihail Marchukajtes:
Fratelli, è solo un piccolo passo per noi, ma sarà un grande passo per tutta l'umanità.....

Misha, ci ho creduto! Lo sapevo! Bello! Sei il migliore!))

 
Vizard_:

Misha, ho creduto! Lo sapevo! Bello! Sei il migliore!)))

Grazie per il tuo sostegno mate!!!!! Ne ho davvero bisogno. Scrivilo bene la prossima volta che ti rivolgi a me. HandsomeGGGG!!!! Sembra molto più solido in questo modo....

 

Continuiamo...

Ci sono due colonne con valori, ho calcolato la probabilità dell'evento nella colonna A e la probabilità di un altro evento nella colonna B. La condizione è molto semplice >0. Ho contato il numero di eventi maggiori di zero nella colonna A e ho diviso per il numero totale di righe, lo stesso ho contato il numero di valori nella colonna B e ho diviso per il numero totale di osservazioni.

Poi, usando i miei valori, come faccio a calcolare la probabilità condizionata???? Considerando che ho due colonne ed entrambe hanno 40 righe????

 
Mihail Marchukajtes:

Ok, ci arriverò dall'altra parte. Supponiamo che io abbia un insieme di 100 ingressi. Calcolo l'entropia per ogni ingresso e ottengo risultati da -10 a 10. Domanda: Quali input sono preferibili al take????

Diciamo che ho 10 ingressi sotto zero, il resto sopra, MA tutti i valori sono compresi tra -10 e 10.....

Mihail Marchukajtes:

E inoltre... non c'è modo di calcolare le informazioni reciproche.... O piuttosto la probabilità condizionata, per il successivo calcolo dell'entropia e del VI.

Qualcuno può spiegare sulle dita o su un esempio migliore.

prima colonna 40 righe variabile di ingresso

seconda colonna 40 righe output....

Ha lavorato molto durante la notte per identificare l'ipotesi. Ho inciampato su queste cose e non c'è stato verso. Per favore aiutatemi e vi darò i miei pensieri sulla mia ipotesi...


Non ho studiato la teoria dell'informazione, ma ho qualche esperienza con l'entropia in R.

Essenzialmente, maggiore è l'entropia e più caos c'è nei dati. Un predittore con un'alta entropia è piuttosto mal collegato all'obiettivo. Al contrario, una bassa entropia indica che il predittore è facilmente identificabile dal predictor.

La non-entropia è l'opposto dell'entropia, non porta nessuna nuova conoscenza rispetto all'entropia, è solo introdotta per comodità. Se il predittore ha una grande entropia, allora la non entropia è piccola. Se l'entropia è piccola, allora la non-entropia è grande. È come il caldo e il freddo, la luce e l'oscurità, ecc.

Ma non è tutto, c'è anche la cross-entropia. Questo è il modo in cui i due predittori insieme sono legati all'obiettivo, un'alta cross-entropia è cattiva, bassa è buona. Nell'apprendimento automatico accade spesso che due predittori con alta entropia quando vengono usati insieme danno una bassa entropia incrociata, che è ciò di cui tutti abbiamo bisogno. Anche se ciascuno dei predittori può essere associato male al bersaglio da solo (alta entropia per entrambi), ma insieme possono colpire il bersaglio (bassa entropia incrociata). Quindi non si può semplicemente misurare l'entropia di ogni predittore separatamente, e scegliere un set in base alla stima. È necessario selezionare l'intero set di predittori con bassa entropia incrociata, io per esempio non guardo quale sia la loro entropia individualmente.

Ecco alcuni esempi -

1) Predittore con alta entropia. Non c'è alcun modo di prevedere la classe di destinazione.

2) Predittore con bassa entropia. Se guardate bene, se il valore del predittore è da 0 a 0,25 o meno di 0,4, allora il valore della classe = 1. Altrimenti, classe = 2. Questo è un predittore molto comodo da usare in MO.

3) Due predittori, ognuno ha un'alta entropia, e il modello non sarà mai in grado di predire il target usando solo il primo o solo il secondo predittatore. Ma disegnandoli insieme (l'asse X è il valore del primo, e il valore Y del secondo) possiamo immediatamente vedere che insieme danno ottime informazioni sulla classe del bersaglio (stesso segno per entrambi i predittori = classe1, segno diverso = classe2). Questo è un esempio di bassa entropia incrociata.


 
Mihail Marchukajtes:

Grazie per il vostro sostegno Fellow!!!!! Ne ho davvero bisogno. La prossima volta che ti rivolgi a me, scrivilo bene. HandsomeGGGGG!!!! Questo suona molto più solido....

Ecco perché ti amiamo, insegnante! È sempre lì, sempre a correggerci. Sei il nostro caro uomo!!!))

"I testimoni di Mishanin". Febbraio 2018.


 
Nonostante le recriminazioni, continuerò. Ho calcolato la probabilità condizionata come segue. Il numero di dati che soddisfano la condizione nella prima colonna è 19, nella seconda 20. Per trovare la probabilità condizionata. Aggiungo 19+20 e divido il tutto per il numero totale di voci che è 80 (40 nella prima colonna e 40 nella seconda). E bisogna dividere per la probabilità.... Se ho la colonna A-entrata e la colonna B-uscita, allora per conoscere la probabilità condizionale di entrata in uscita è necessario dividere la probabilità totale per la probabilità della colonna di entrata. È corretto?
 
Mihail Marchukajtes:

Di nuovo, una domanda. Ci sono otto modelli di NS. Al segnale attuale, le entropie delle uscite NS sono le seguenti

5.875787568 -5.702601649 5.066989592 9.377441857 7.41065367 1.401022575 4.579082852 5.119647925

Quale dovrei scegliere? Quella rossa? perché ha un'entropia negativa o quella blu? è più vicina allo zero. Dirò che questi due modelli guardano in direzioni diverse, ma sappiamo che il tempo dirà chi aveva ragione.... Alla fine, uno di loro vincerà. Chi ci sta pensando?

Riassumendo quello che ho scritto sopra - devi prima determinare la cross-entropia delle combinazioni di predittori, e prendere la combinazione di predittori dove la cross-entropia è più bassa. Strano che sia negativo, nel mio caso è solo da infinito a zero, ma non importa, prendete il più negativo allora.

L'entropia dell'uscita NS è, secondo me, pessima come stima della neuronica stessa. È possibile regolare le uscite della rete per dare una risposta corretta nel 100% dei casi, e avrà una bassa entropia, ma potrebbe avere un grande overfit. La sovralimentazione è un male.

 

Il punto è che ho trovato un add-on per Excel, che calcola l'entropia. L'ho finito nel modo che voglio, senza cambiare la logica del calcolo e quindi ho questa domanda. Spiega cosa sta succedendo qui nel calcolo di questi ciclopi. Cosa fanno esattamente, lo capisco, ma in qualche altro modo.... HM....

Per ogni valore in ActiveSheet.Range(Data1)

X(I) = Valore

Nn = Nn + Valore

I = I + 1

Prossimo valore

In questo ciclo, l'array X viene scritto e c'è anche una somma accumulata, come se non ci fosse una domanda, ma ulteriormente....

Per I = 1 a N

X(I) = X(I) / Nn

Prossimo I

Dividiamo ogni elemento dell'array per la somma totale dei valori, sospetto che questa sia solo la ricerca della frequenza. Giusto????

Ok... penso di aver capito, dobbiamo sommare tutte le frequenze per trovare la probabilità. Giusto?

 
Ildottor Trader:

Per riassumere quello che ho scritto sopra, prima determiniamo la cross-entropia delle combinazioni di predittori, e prendiamo la combinazione di predittori con la cross-entropia più bassa. È strano che sia negativo, nel mio caso è solo da infinito a zero, ma non importa, prendete il più negativo allora.

L'entropia dell'uscita NS è, secondo me, pessima come stima della neuronica stessa. È possibile regolare le uscite della rete per dare una risposta corretta nel 100% dei casi, e avrà una bassa entropia, ma potrebbe avere un grande overfit. La sovralimentazione è un male.

Per trovare l'entropia incrociata devi prima trovare l'entropia condizionale di due eventi, che è quello che sto facendo ora....

E la stima dell'entropia del modello è necessaria quando il modello è in OOS. Avendo emesso un segnale possiamo calcolare l'entropia di questo segnale e usarla per trarre conclusioni. L'entropia del segnale è aumentata. Fanculo, è giù - è la nostra locomotiva a vapore....

Motivazione: