Interpolazione, approssimazione e simili (pacchetto alglib) - pagina 15

 
Maxim Dmitrievsky :

Tutto, ho trovato un ragazzo normale, ben spiegato, ha ricordato subito tutto


Grande!!!

Quindi per ora il tuo problema è risolto per quanto riguarda la trasformazione e la mappatura nello spazio 2 D?

Anche se non ho capito il russo, ma ho capito un po' la formula. È solo un gioco di coseno e moltiplicazione e divisione delle grandezze dei 2 vettori :))

Hai trasformato il codice in MQL5?

 
Ho letto la corrispondenza inglese. A malapena. Si scopre che Wapnick, le cui idee mi sono venute in mente subito dopo aver letto TC #1, in primo luogo, è vivo, e in secondo luogo, ha sviluppato un'idea di minimizzazione del rischio empirico (medio) per reti neurali di apprendimento automatico a un metodo di vettori di supporto, una versione non lineare del quale è discussa in questa corrispondenza. VIKI:

Metodo del vettore di riferimento

Kernel[edit | edit code]

Un algoritmo per costruire un iperpiano di separazione ottimale, proposto nel 1963 da Vladimir Vapnik e Alexei Chervonenkis, è un algoritmo di classificazione lineare. Tuttavia, nel 1992, Bernhard Boser, Isabelle Guillon e Vapnik hanno proposto un modo per creare un classificatore non lineare basato sul passaggio da prodotti scalari a kernel arbitrari, il cosiddetto kernel trick (proposto per la prima volta da M.Aizerman, Braverman e Rozonoer per il metodo della funzione potenziale), che permette di costruire separatori non lineari. L'algoritmo risultante è estremamente simile all'algoritmo di classificazione lineare, l'unica differenza è che ogni prodotto scalare nelle formule di cui sopra è sostituito da una funzione kernel non lineare (un prodotto scalare in uno spazio di dimensioni maggiori). In questo spazio può già esistere un iperpiano di separazione ottimale.


Sembra che Maxim Dmitrievsky fissi degli obiettivi molto vicini a quelli perseguiti da Vapnik. Dovremmo guardare a Wapnick per una base per la scelta (e la selezione) delle funzioni approssimative.

 
Vladimir:
Ho letto la corrispondenza inglese. A malapena. Si scopre che Wapnick, le cui idee mi sono venute in mente subito dopo aver letto TC #1, in primo luogo, è vivo, e in secondo luogo, ha sviluppato un'idea di minimizzazione del rischio empirico (medio) per reti neurali di apprendimento automatico a un metodo di vettori di supporto, una versione non lineare del quale è discussa in questa corrispondenza. VIKI:

Metodo del vettore di riferimento

Kernel[edit | edit code]

Un algoritmo per costruire un iperpiano di separazione ottimale, proposto nel 1963 da Vladimir Vapnik e Alexei Chervonenkis, è un algoritmo di classificazione lineare. Tuttavia, nel 1992, Bernhard Boser, Isabelle Guillon e Vapnik hanno proposto un modo per creare un classificatore non lineare basato sul passaggio da prodotti scalari a kernel arbitrari, il cosiddetto kernel trick (proposto per la prima volta da M.Aizerman, Braverman e Rozonoer per il metodo della funzione potenziale), che permette di costruire separatori non lineari. L'algoritmo risultante è estremamente simile all'algoritmo di classificazione lineare, l'unica differenza è che ogni prodotto scalare nelle formule precedenti è sostituito da una funzione kernel non lineare (un prodotto scalare in uno spazio di dimensioni maggiori). In questo spazio può già esistere un iperpiano di separazione ottimale.


Maxim Dmitrievsky sembra fissare obiettivi molto vicini a quelli perseguiti da Vapnik. Dovremmo guardare a Wapnick per una base per selezionare (e scegliere) le funzioni uproximating.

Sì, grazie. Conferenza di Yandex con uno scienziato russo in inglese, una vergogna


 
Maxim Dmitrievsky:

Sì, grazie. Conferenza di Yandex con scienziato russo in inglese, una vergogna


Si è trasferito a vivere negli Stati Uniti nel 1990 quando aveva 54 anni. Non c'è da stupirsi che pronunci parole inglesi con suoni russi. Non vedo nulla di imbarazzante. Parla molto chiaramente, come la maggior parte delle persone per le quali l'inglese non è la loro prima lingua. Pensate alla pronuncia del greco Demis Roussos, straordinariamente chiara e distinta per le canzoni.
 
Vladimir:
È venuto a vivere negli Stati Uniti nel 1990 quando aveva 54 anni. Non c'è da stupirsi che pronunci parole inglesi con suoni russi. Non vedo nulla di imbarazzante. Parla molto chiaramente, come la maggior parte delle persone per le quali l'inglese non è la loro prima lingua. Pensate alla pronuncia del greco Demis Roussos, incredibilmente chiara e separata per le canzoni.

Yandex è una società russa. È una vergogna che stiano chiudendo i loro accademici e coloro che vogliono imparare da loro in russo.

Hanno persino delle descrizioni dei loro algoritmi di apprendimento automatico, tutte in inglese.
 

Ciao Maxim,

Quindi avete fatto ulteriori progressi con il codice che si era bloccato in precedenza?

        P = cvxopt.matrix (np.outer (y, y) * K)
        q = cvxopt.matrix (np.ones (n_samples) * - 1 )
        A = cvxopt.matrix (y, ( 1 , n_samples))
        b = cvxopt.matrix ( 0.0 )
 
FxTrader562:

Ciao Maxim,

Quindi avete fatto ulteriori progressi con il codice che si era bloccato in precedenza?

Non possiamo usare i kernel in questo modo, perché questo algoritmo funziona solo con prodotti interni, e non so come mappare le caratteristiche in vettori

 
Maxim Dmitrievsky :

Non possiamo usare i kernel in questo modo, perché questo algoritmo funziona solo con prodotti interni, e non so come mappare le caratteristiche in vettori

Bene, questa è esattamente la funzione principale della funzione kernel.

Ma non possiamo mappare le caratteristiche dentro e fuori usando la funzione kernel. Questo non è il compito della funzione kernel. La funzione kernel rende semplicemente il processo di classificazione più veloce e più facile mappando i punti di prezzo a dimensioni più alte.

La cosa più importante è che anche se mappate una caratteristica, per esempio un prezzo vicino alla candela, in uno spazio 3D. Il valore di chiusura della candela non cambierà in 3D. È molto normale anche se lo si mappa in 2D.

Questo è il momento in cui le spline entrano in scena per l'interpolazione dei prezzi e immagino che voi conosciate già le spline. Voglio dire che alimentiamo i dati in termini di spline e otteniamo la classificazione fatta dai kernel.

Ora, se stai cercando di mappare le caratteristiche, allora, gentilmente, specifica esattamente cosa stai cercando di mappare in termini di prezzo. Voglio dire che stai cercando di mappare la chiusura delle candele, i prezzi di apertura delle candele e così via.

 

Ciao Maxim,

Mi dispiace di averla disturbata di nuovo. Ho solo pensato di controllare rapidamente con te se stai ancora lavorando al tuo progetto RDF.

Sto cercando di migliorare la vostra attuale algo RDF così come sto cercando di integrare l'algo di rinforzo python con MQL. Quindi, ho pensato di collaborare solo con altri programmatori che sono interessati a questo.

Potete aggiornarmi se ci state ancora lavorando e a che punto siete arrivati finora.

Ho alcune idee interessanti da implementare con l'RDF che posso condividere con voi insieme al codice sorgente di MQL5 e devo ancora imparare il ponte tra Mt5 e python.

Grazie...

 
FxTrader562:

Ciao Maxim,

Mi dispiace di averla disturbata di nuovo. Ho solo pensato di controllare velocemente con te se stai ancora lavorando al tuo progetto RDF.

Sto cercando di migliorare la vostra attuale algo RDF così come sto cercando di integrare l'algo di rinforzo python con MQL. Quindi, ho pensato di collaborare solo con altri programmatori che sono interessati a questo.

Potete aggiornarmi se ci state ancora lavorando e a che punto siete arrivati finora.

Ho alcune idee interessanti da implementare con l'RDF che posso condividere con voi insieme al codice sorgente di MQL5 e devo ancora imparare il ponte tra Mt5 e python.

Grazie...

Ciao, sì, provo varie idee che sono in parte discusse qui https://www.mql5.com/ru/forum/86386/page1056

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2018.09.14
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
Motivazione: