L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 591

 
Yuriy Asaulenko:
In realtà, tutto deve essere scritto in C++/C# e non ci sono problemi di interazione con nulla. Il problema è che le principali librerie DM sono in Python e R, e questo è necessario, almeno, per padroneggiare. E l'interazione non è niente, ci sono API ovunque (tranne MQL). Puoi almeno trasferire i file tramite RAM-Disk.

Sì, è vero, non c'è nessun problema.

Il problema è quanto profondamente bisogna mettere radici in MO e a che punto capire che questi modelli sono già abbastanza...

Mi sono sistemato sui classici per ora e tutto è sufficiente per me... Non sto cercando un 1-10% di aumento della precisione :) ora mi sto concentrando sulle strategie, un sacco di idee che ho - e tutto questo deve essere testato, tshe

Sto studiando PNN in dettaglio - lavorano con valori di probabilità e non si riqualificano molto.

 
Evgeny Belyaev:

Yura, sei davvero qualcosa! )) Parlare così nel forum MQL. Ora i tuoi compagni verranno di corsa a lanciarti pietre.

Uso anche MQL solo per aprire/chiudere gli ordini. Uso MQL solo per aprire/chiudere gli ordini. Tutti i calcoli sono in Wissima. Tuttavia questo è l'unico forum con fisici e matematici più o meno professionisti, ecco perché sono qui. Sul resto dei siti, sono solo degli idioti di paese.
 
Alexander_K2:
Uso anche MQL solo per aprire/chiudere gli ordini. Tutti i calcoli sono in Wissima. Questo è l'unico forum dove abbiamo fisici e matematici più o meno professionisti, per questo sono qui. Sul resto dei siti, sono solo degli idioti di paese.

Alexander, potresti essere interessato a questo argomento :)

Ilmetodo di approssimazione delle funzioni di densità di probabilità per mezzo di funzioni kernel è molto simile al metodo dellefunzioni a base radiale, e quindi si arriva naturalmente alle nozioni direte neurale probabilistica (PNN) erete neurale di regressione generalizzata (GRNN)(Speckt 1990, 1991). Le PNNN sono per compiti diclassificazione e le GRNN sono per compiti diregressione. Le reti di questi due tipi sono implementazioni di metodi di approssimazione kernel, inquadrati comeuna rete neurale.

 
Maxim Dmitrievsky:

Alexander, potresti essere interessato a questo argomento :)

Ilmetodo di approssimazione delle funzioni di densità di probabilità per mezzo di funzioni kernel è molto simile al metodo dellefunzioni a base radiale, e quindi si arriva naturalmente alle nozioni direte neurale probabilistica (PNN) erete neurale di regressione generalizzata (GRNN)(Speckt 1990, 1991). Le PNNN sono per compiti diclassificazione e le GRNN sono per compiti diregressione. Questi due tipi di reti sono implementazioni di metodi di approssimazione kernel, progettati comeuna rete neurale.

Grazie, Maxim!
 
Alexander_K2:
Sì. Grazie, Maxim!
Maxim è davvero molto buono. A volte mi stupisce la sua prospettiva. Ma dobbiamo ricordare - le persone che leggono molto, si disabituano a pensare da sole. Indovina chi?))
 
Yuriy Asaulenko:
Ma dobbiamo ricordare che le persone che leggono molto, diventano incapaci di pensare da sole (c). Indovina chi?))

C'è anche questa opinione:

La gente smette di pensare quando smette di leggere. Diderot

 
Yuriy Asaulenko:
Maxim è davvero buono. A volte mi stupisce la sua prospettiva. Ma bisogna ricordare che le persone che leggono molto si disabituano a pensare da sole. Indovina chi?))
Sono d'accordo. Ma, il link interessante - lo leggerò quando avrò tempo. Occupato ora - vedo il Graal all'orizzonte e, spinto dalle possenti mani di mio suocero, mi muovo verso di esso.
 
Evgeny Belyaev:

C'è anche questa opinione:

La gente smette di pensare quando smette di leggere. Diderot

L'uno non esclude l'altro). Nessuno ha affermato che non si dovrebbe leggere affatto).
 
Alexander_K2:
Sono d'accordo. Ma il link è interessante - lo leggerò quando avrò tempo. Ora sono occupato - vedo il Graal all'orizzonte e, spinto dalle potenti mani di mio suocero, mi muovo verso di esso.

Cercate e troverete. (с)

Ma non questa volta.

 
Yuriy Asaulenko:
Maxim è davvero molto buono. A volte mi stupisce la sua prospettiva. Ma ricordate - le persone che leggono molto si disabituano a pensare da sole. Indovina chi?))

Sì, ho appena passato in rassegna tutti i tipi di articoli per vedere cosa c'è di interessante sull'argomento :) Bene, il vantaggio principale rispetto a MLP, per quanto ho capito, è la velocità e le impostazioni minime (qui non lo sono affatto) e che queste griglie non vengono quasi riqualificate

Bene e la forza f gaussiana è usata al posto di quella di Stydent. Per ogni ingresso, viene creata una densità di vertici fi, poi i risultati in uscita vengono sommati linearmente

a proposito, PNN e GRNN sono disponibili in forma di mql, ma non li ho ancora provati e non li ho confrontati con MLP

https://www.mql5.com/ru/code/1323

Класс нейронной сети PNN
Класс нейронной сети PNN
  • voti: 41
  • 2012.11.30
  • Yury Kulikov
  • www.mql5.com
Класс CNetPNN реализует вероятностную нейронную сеть (Probabilistic Neural Network - PNN). Создание сети объявляется параметрическим конструктором класса. Нумерация классов(целей классификации) начинается с нуля и должна быть непрерывна. Например, если задано 3 класса, то номера классов должны быть: 0, 1, 2. Обучение сети осуществляется вызовом...
Motivazione: