L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3297

 
Andrey Dik #:

Non hai scritto sull'ottimizzazione, perché stai curiosando?
Non ho scritto a te.
E l'apprendimento è un caso particolare di ottimizzazione, ricordatelo finalmente.
Sanych ha scritto tutto correttamente. Tutto è iniziato con il mio messaggio. Ti sei addentrato nel débris sbagliato.

Si è scoperto che si trattava di scrivere sul nulla.
 
Andrey Dik #:
Non posso fare a meno di condividere la splendida notizia (per me così accurata) che è stato trovato un algoritmo ancora più forte di SSG.

È davvero una buona cosa.

 
La formazione è, ovviamente, un concetto più ampio dell'ottimizzazione. E utilizza i propri criteri di valutazione.

L'argomento si chiama: MOE.
 
Maxim Dmitrievsky #:
State confondendo le entità. State cercando di adattare l'ottimizzazione all'approssimazione, o viceversa.

L'approssimazione e l'ottimizzazione sono approcci diversi alla soluzione di problemi di apprendimento automatico.

Se ho capito bene, l'approssimazione nell'algo-trading è la creazione del TS stesso. Voglio che martin sia creato, voglio che scalper sia creato, voglio che i pattern siano creati, ecc. È possibile che i metodi MO creino qualcosa.

E l'ottimizzazione - aggiustamento/studio del TS già creato.

Poiché, a differenza di un essere umano, il MO è coinvolto anche nella creazione dei TC attraverso il number cruncher, possiamo combinare approssimazione e ottimizzazione. Avete capito bene?

 
fxsaber #:

Se ho capito bene, nell'algo-trading l'approssimazione è la creazione del TS stesso. Voglio che venga creato il martin, voglio che venga creato lo scalper, voglio che vengano creati i pattern, ecc. È possibile istruire i metodi MO per creare qualcosa.

E l'ottimizzazione è la messa a punto/studio del TS già creato.

Dal momento che, a differenza di un umano, il MO è coinvolto anche nella creazione dei TC attraverso il number cruncher, possiamo combinare approssimazione e ottimizzazione. È così?

Esattamente così
 
L'approssimazione con un polinomio di grado elevato porta all'overtraining. La varianza dell'errore diminuisce, ma il bias sui nuovi dati aumenta. È come aggiungere molte caratteristiche. E solo le basi.
Non è possibile sintonizzare un modello riqualificato, non si generalizza bene. Non si può fare l'inferenza di Kozul perché non ci sono confronti tra i campioni di prova e quelli di controllo. Il modello è sbagliato ovunque sul campione di prova, è impossibile ricavare una correzione. È più facile buttare via il modello.
 
Maxim Dmitrievsky #:
Esattamente

È interessante notare che, in termini di quantità di dati (citazioni), un cervello umano (come rete neurale) rispetto a un MO è come un infusore rispetto a un umano.

Tuttavia, gli esseri umani primitivi hanno dimostrato di essere in grado di creare dei TC funzionanti piuttosto bene. È emerso che non è necessaria un'enorme quantità di dati per creare una CT funzionante.

Per me è un mistero come, ad esempio, l'uomo sia arrivato a creare modelli scalper funzionanti. È stato fatto quasi interamente senza l'ausilio di calcolatori numerici.


Lo scenario deve essere stato qualcosa di simile:

  1. Vedo spesso un certo tipo di appiattimento (stupidamente sullo schermo per alcuni giorni).
  2. Provo a guadagnarci sopra con un TS primitivo.
  3. Non drena molto. Dovrei perfezionare un po' il TS. Ho dato un'occhiata alla storia del trading: sembra che qualcosa possa essere migliorato.
  4. Ha iniziato a guadagnare un po'. Ripeto il punto 3.
Non ho fatto calcoli numerici. Ho semplicemente guardato il punto 1 e ho iniziato a farlo. La probabilità di questo approccio sembra pari a zero, ma in qualche modo funziona. È una specie di metodo di punzecchiatura folle che funziona.


A quanto pare, il cervello umano è ancora in grado di trovare "schemi" su una quantità estremamente ridotta di dati. Non si può chiamare fortuna. È un mistero.

 
fxsaber #:

È interessante notare che, in termini di quantità di dati (citazioni), il cervello umano (come rete neurale) rispetto al MO è come un'infusoria rispetto a un essere umano.

Tuttavia, gli esseri umani primitivi hanno dimostrato di essere in grado di creare delle TC che funzionano piuttosto bene. È emerso che non è necessaria un'enorme quantità di dati per creare una CT funzionante.

Per me è un mistero come, ad esempio, l'uomo sia arrivato a creare modelli scalper funzionanti. È stato fatto quasi interamente senza l'ausilio di calcolatori di numeri.


Lo scenario era apparentemente qualcosa di simile:

  1. Vedo spesso una sorta di appiattimento (ho macinato stupidamente sullo schermo per qualche giorno).
  2. Provo a guadagnarci sopra con un TS primitivo.
  3. Non drena molto. Dovrei perfezionare un po' il TS. Ho dato un'occhiata alla storia del trading - sembra che qualcosa possa essere migliorato.
  4. Ha iniziato a guadagnare un po'. Ripeto il punto 3.
Non c'è un calcolatore di numeri. Ho semplicemente guardato il punto 1 e ho iniziato a farlo. La probabilità di questo approccio sembra essere pari a zero, ma in qualche modo funziona. È una specie di metodo di punzecchiatura folle che funziona.
Apprendimento one-shot. Quando un grande NS preaddestrato (cervello) viene preaddestrato su dati di sinistra con pochi esempi. Se il modello ha inizialmente appreso le leggi del mondo, è facile che faccia clic su un nuovo compito con un'occhiata superficiale.

Questo è il modo in cui i modelli linguistici di grandi dimensioni, in particolare, vengono pre-appresi, per nuovi compiti. Ma se lo si costringe a imparare questi nuovi esempi per molto tempo, inizierà a dimenticare l'esperienza precedente e diventerà prevenuto verso i nuovi dati.
 
fxsaber #:

È interessante notare che, in termini di quantità di dati (citazioni), il cervello umano (come rete neurale) rispetto al MO è come un'infusoria rispetto a un essere umano.

150 miliardi di neuroni, e non 1 output ciascuno, ma molti. L'IA non crescerà a un tale livello né presto né mai.
La NS è paragonata, per il livello di intelligenza, a uno scarafaggio: scappa, morde - scappa.

 
Maxim Dmitrievsky #:
Apprendimento one-shot. Quando un grande NS preaddestrato (cervello) viene preaddestrato su dati di sinistra con pochi esempi. Se il modello ha inizialmente appreso le leggi del mondo, può facilmente fare clic su un nuovo compito con un'occhiata superficiale.

qui, voi stessi avete dimostrato che un cervello pre-addestrato con dati di sinistra risolve problemi specifici che non conosceva prima. e dite che non è necessaria una "conoscenza" aggiuntiva.