L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 563

 
Maxim Dmitrievsky:

Whew... ho letto tutto il thread dall'inizio alla mia apparizione... ora ho visto tutto

ma nessun graal lì... peccato, continuerà a scavare allora

Questa è la decisione giusta. La teoria NS qui sul forum è tutt'altro che ideale.
 
Alexander_K2:
Questa è una soluzione corretta. La teoria NS qui sul forum è tutt'altro che ideale.

l'unica cosa che ho scritto riguarda il classificatore ternario e la soluzione del mistero diYuriy Asaulenko

 
Alexander_K2:
Questa è la decisione giusta. La teoria NS qui sul forum è tutt'altro che ideale.
E qui non è affatto necessario. Tutta la teoria è già stata esposta molto prima di noi. )
 
Maxim Dmitrievsky:

L'unica cosa che ho scritto riguarda il classificatore ternario e la soluzione del mistero diYuriy Asaulenko

Questa è la prima volta che farò degli archi - Yury non è così semplice come sembra. Fisico! Capisco cosa fa - è come se avesse due processi paralleli in corso. Uno, probabilistico, afferma che sembra essere il momento di un accordo. Il secondo - il NS - dà o rifiuta. Non dirò nient'altro - lasciamo che lo racconti lui stesso.
 
Maxim Dmitrievsky:

L'unica cosa che ho scritto riguarda il classificatore ternario e la soluzione del misterodi Yuriy Asaulenko

E dove hai trovato il mistero.

MLP è ~60 neuroni. L'algoritmo è BP standard. Imparare - andare di qua e di là, cioè non so che cosa NS sta imparando lì. Inoltre, tutti i principi dell'apprendimento sono delineati nelle monografie classiche - Heikin, Bishop. Soft non è MQL.

I principi di base sono dati in questo argomento.

 
Yuriy Asaulenko:

E dove hai trovato il mistero.

La MLP è di ~60 neuroni. Algoritmo - BP standard. Imparare - andare dove non so dove. cioè non so cosa impara il NS lì. Inoltre, tutti i principi dell'apprendimento sono delineati nelle monografie classiche - Heikin, Bishop. Soft non è MQL.

I principi di base sono delineati in questo argomento.


Questo era una specie di scherzo :))

 
Maxim Dmitrievsky:

Era una specie di scherzo :))

No. Non c'è davvero nient'altro. Tu pensi che Haykin e Bishop siano irrimediabilmente superati e cerchi qualcosa di nuovo (l'hai scritto prima). Sono abbastanza per me.
 
Yuriy Asaulenko:
No. Non c'è davvero nient'altro. Pensate che Haykin e Bishop siano irrimediabilmente superati e cercate qualcosa di nuovo. Sono abbastanza per me.

No, voglio dire che è come se stessi scherzando ... sei l'unico nel thread che è venuto con qualcosa alla fine :)

devi cercare su Google l'addestramento del perceptron usando il metodo Monte Carlo.

In generale, questo metodo è molto simile alla RL (apprendimento per rinforzo) quando c'è un agente che impara e il NS sta imparando a trovare la soluzione migliore.

 

Questo è il modo in cui Alpha Go è addestrato (anche se in precedenza si pensava che fosse un gioco creativo e una macchina non poteva battere un umano in esso)

ed ecco il vincitore.

https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/

Нейросеть AlphaGo перевели на самообучение
Нейросеть AlphaGo перевели на самообучение
  • 2017.10.20
  • techfusion.ru
Искусственный интеллект AlphaGo показал прекрасные результаты самообучения: за три дня нейросеть от уровня начинающего игрока в «Го» дошла до уровня профессионала, одерживающего только победы Разработчики DeepMind усовершенствовали искусственный интеллект AlphaGo. Новая модель ИИ AlphaGo Zero обучалась «с нуля» без участия человека, играя сама...
 
Maxim Dmitrievsky:

No, voglio dire che è come se stessi scherzando ... sei l'unico nel thread che è venuto con qualcosa alla fine :)

devi cercare su Google l'addestramento del perceptron usando il metodo Monte Carlo.

In generale, questo metodo è molto simile al RL (apprendimento per rinforzo) quando si ha un agente che impara e il NS sta imparando a trovare la soluzione migliore

A proposito, è in gran parte grazie a voi. Quando ho iniziato, sei stato tu a darmi il link dell'articolo di Reshetov. In generale l'articolo è inutile, più che altro un esempio di applicazione, ma è diventato più o meno chiaro dove imbrigliare il cavallo.

Non so se ci sono questi metodi in Google, dato che io stesso alla fine sono arrivato a Monte Carlo.

Nemmeno io conosco la RL, ma dalla tua breve descrizione sembrano i miei metodi.

Ho trovato Monte Carlo in Google -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf Solo che è assolutamente diverso.

Motivazione: