L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1838

 
Mihail Marchukajtes:

Sto duplicando il video qui, nel caso qualcuno fosse interessato. E io sono un locale in questo thread, quindi qual è il punto... Forse qualche mago lì vorrà discutere, ecc. :-)

https://youtu.be/TlNk3fKkUxo

Intelligenza artificiale forte e debole

 
Mihail Marchukajtes:

Sto duplicando il video qui, nel caso qualcuno fosse interessato. E io sono un locale in questo thread, quindi qual è il punto... Forse qualche mago lì vorrà discutere, ecc. :-)

https://youtu.be/TlNk3fKkUxo

Misha ha promesso un graal, ma è caduto nel populismo 😄
 
Mihail Marchukajtes:

Sto duplicando il video qui, nel caso qualcuno fosse interessato. E io sono un locale in questo thread, quindi qual è il punto... Forse qualche mago lì vorrà discutere, ecc. :-)

https://youtu.be/TlNk3fKkUxo

Cosa c'è da discutere?

Solo l'opinione di un uomo medio che pensa di sapere cosa fanno i giganti dell'informatica sul campo ))))

 
Mihail Marchukajtes:

Sto duplicando il video qui, nel caso qualcuno fosse interessato. E io sono un locale in questo thread, quindi che diavolo... Forse qualche mago lì vorrà discutere, ecc. :-)

https://youtu.be/TlNk3fKkUxo

Mihail Marchukajtes: 1) Prof. Seveliev dice che non sono 100 mila connessioni al giorno per neurone che vengono rotte, ma che ce ne sono solo circa 100 mila, e in media si creano e si rompono 3 connessioni al giorno.
2) Il sistema con riapprendimento è abbastanza adatto a questo. Per esempio, alimentiamo un nuovo lotto di dati di riqualificazione (che contraddice le informazioni precedentemente memorizzate) e il coefficiente di connessione tra alcuni neuroni viene ricalcolato e diventa zero. Questo potrebbe essere considerato un analogo della rottura fisica della connessione in un neurone reale. E un altro neurone ricalcolato da 0 a qualche valore >0 - questo è un analogo della creazione di una nuova connessione.
 
Igor Makanu:

C'è un buon articolo sull'hubra

Come capire che una rete neurale risolverà il tuo problema. Una guida pragmatica

sono sorte domande teoriche, è possibile addestrare NS:

1. come generatore di sequenze casuali - analogo della funzione rand()

2. come una funzione per convertire ulong in datetime, cioè in ingresso diamo un numero di ulong in uscita otteniamo anno/mese/giorno/ora/minuto (con una precisione specificata)

1) Improbabile. Il MoD può solo registrare le informazioni e, se necessario, riassumerle.

2) Ok - basta generare dati di allenamento per 10000 anni avanti e insegnare il modello. Ma c'è un problema - oltre alla correzione di 1 giorno ogni 4 anni (anni bisestili), c'è una correzione di 1 giorno ogni 100 anni circa, per adattarsi alla posizione astronomica del pianeta. La differenza con il calendario giuliano per 13 giorni è dovuta al fatto che per qualche tempo, non sapevano che queste correzioni sono necessarie. In generale ci saranno molte correzioni per 10000 anni.

 
Maxim Dmitrievsky:
Misha ha promesso un graal ed è diventato populista 😄
Beh, non sto promettendo un graal, quindi..... la solita spiegazione e non lo è.... è solo un punto dolente e ha vomitato :-)
 
elibrarius:
1) Prof. Seveliev dice che non sono 100 mila connessioni al giorno per ogni neurone da rompere, ma che ci sono solo circa 100 mila connessioni al giorno, e una media di 3 connessioni al giorno vengono create e rotte.
2) Il sistema con riapprendimento è abbastanza adatto a questo. Per esempio, alimentiamo un nuovo lotto di dati di riqualificazione (che contraddice le informazioni precedentemente memorizzate) e il coefficiente di connessione tra alcuni neuroni viene ricalcolato e diventa zero. Questo potrebbe essere considerato un analogo della rottura fisica della connessione in un neurone reale. E l'altro neurone ha ricalcolato da 0 a qualche valore >0 - questo è un analogo della creazione di una nuova connessione.

1. Beh, qui mi sono espresso male. Stavo parlando in generale del numero di connessioni tra i neuroni, non di uno....

2) Non c'è una completa disconnessione. C'è ancora zero che viene trasmesso. Anche se qualche approssimazione in tal senso è presente. Ben fatto!!!!

 
E sì, spero che TUTTI abbiano notato che non assomiglio esattamente a Reshetov Yura? Cioè, per niente, se sei in.....
 
Igor Makanu:
come generatore di sequenze casuali - analogo di rand()

Se rand() è alimentato all'ingresso, molto probabilmente il "cervello" non sarà sufficiente. Ho eseguito lstm su dati casuali per un po' e non ho notato nulla del genere. Ma se si impara passo dopo passo - conversione dei sistemi numerici, algoritmo, allora dovrebbe funzionare.

In generale, è interessante controllare un hardware molto potente.

 
Mihail Marchukajtes:

Sto duplicando il video qui, nel caso qualcuno fosse interessato. E io sono un locale in questo thread, quindi qual è il punto... Forse qualche mago lì vorrà discutere, ecc. :-)

https://youtu.be/TlNk3fKkUxo

Ahahahaha )))) LOTTA!!!

Motivazione: