L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 601

 
Vladimir Perervenko:

Questo è un link a Hubr. Il link della libreria è https://keras.rstudio.com/index.html.

Leggere le fonti primarie.

Buona fortuna

Sì, vedo -Keras è un'API di reti neurali di alto livello sviluppata con l'obiettivo di permettere una sperimentazione veloce. R? come previsto, l'interfaccia.

Grazie.

I sorgenti sono attualmente qui -https://keras.io/ e su GitHub -https://github.com/keras-team/keras

Keras Documentation
Keras Documentation
  • keras.io
Keras is a high-level neural networks API, written in Python and capable of running on top of TensorFlow, CNTK, or Theano. It was developed with a focus on enabling fast experimentation. Being able to go from idea to result with the least possible delay is key to doing good research. Use Keras if you need a deep learning library that: Allows...
 
Vizard_:

Nella prima metà del 2016 il mondo ha sentito parlare di molti sviluppi nel campo delle reti neurali - i loro algoritmi sono stati dimostrati da
Google (rete di giocatori AlphaGo Go), Microsoft (una serie di servizi di identificazione delle immagini), le startup MSQRD, Prisma e altre...
Pochi lo sanno, ma altri sono stati sviluppati in parallelo. Le migliori menti del pianeta si sono unite per creare un sistema unico,
che potrebbe già essere chiamato AI. Il prodotto finale è fatto da "programmatori di Dio", funziona facilmente con qualsiasi quantità di dati,
su qualsiasi tipo di hardware, anche su un piccolo pezzo di carta. In breve - Mishan, prendi! Ma stai zitto...)))


Andiamo, spero che non sia un brutto virus... Non so se ci metti la cacca. Una volta conoscevo un utente soprannominato Klot. Diceva che poteva "programmare l'inferno di un uomo calvo" ed era molto bravo a programmare ....

Non ho potuto nemmeno guardarlo, perché ho i fogli imbottiti del 2003... Immagino che non era destino :-(

[Eliminato]  

è una specie di "lacuna che è sempre con te".

 
Mihail Marchukajtes:

Non ho potuto nemmeno guardarlo, perché ho i foglietti imbottiti del 2003...

È il momento di scatenarsi.

excel 03 è hardcore.

[Eliminato]  
Mihail Marchukajtes:

Andiamo, spero che non sia un brutto virus... Non so se ci metti la cacca. Una volta conoscevo un utente soprannominato Klot. Diceva che poteva "programmare l'inferno di un uomo calvo" ed era molto bravo a programmare ....

Non ho potuto nemmeno guardarlo, perché ho i fogli imbottiti del 2003... Credo che non ne valga la pena :-(


google shits, no?

ma è una specie di perseptron autocostruito :)

 
Non si può:

A volte sospetto che lei sia da biasimare per la morte di Reshetov, mi scusi se mi esprimo, non ho potuto resistere.


Dibs on..... Naturalmente ho piantato alcune varianti sul suo sviluppo, ma credo che al massimo il 10% delle mie idee siano state approvate da lui e probabilmente ho esagerato. Il fatto che nel MOE ci sono due aree di professionisti sono gli sviluppatori (programmatori) e gli ingegneri (utenti). Indovina in quale categoria mi trovo????

 

Quindi sto pensando di prendere la formazione di java e andare avanti. Sento che non capisco una serie di punti chiave nelle peculiarità della lingua e mi è stato offerto di impararli per 150 mila per un anno all'università di mail.ru..... Le cose stanno così. Si è fermato a una delle fasi finali, la selezione dei predittori. Calcolo del loro significato e qualche tipo di selezione. Perché ci sono due pezzi induriti nel codice. Ma credetemi, un esperto nel processo stesso di apprendimento, analisi del modello risultante e la sua selezione (che è ciò che gli ingegneri sono bravi a fare). Posso dare la seguente valutazione.

1.JPrediction ha la capacità di generalizzare. Non quanto vorrei, ma su 10 modelli ottenuti il 50-80% saranno modelli generalizzati, il resto sarà prugna. Saranno generalizzati in modo diverso e un modello con una buona curva di apprendimento può guadagnare meno di un modello con una curva di apprendimento peggiore in futuro.

2. Il problema della selezione dei predittori è che se gliene do 100, costruisce un modello di massimo 9 e lo fa per 3 giorni su 3 core. A rigor di logica, più sono gli input più il modello è parametrico e più fattori prende in considerazione, ma in pratica più il modello è semplice e meglio funziona in futuro rispetto a un modello con lo stesso risultato di allenamento ma con più input. Considero i modelli con 5 ingressi e superiori, perché con un numero inferiore di ingressi ha effetto quando il modello è fortunato per un certo tempo e poi no, e di regola questo tempo non è considerevole, perché il modello è troppo piccolo.

Ho appena provato tutto con i dati e anche insegnato JPrediction ferocemente riqualificare quando prendo gli stessi dati, farli riqualificare e il risultato è la formazione aumenta bruscamente entro il 20%. Cioè, era il 75% è diventato il 90% e allo stesso tempo ho avuto una terribile perdita di feedback.

Ora cominciano ad apparire servizi per MO, io uso AWS. C'è una sezione sull'apprendimento automatico e la costruzione di modelli. Di conseguenza, costruisco lì e il mio modello da uno stesso file. Su AWS, la qualità del modello addestrato è molte volte peggiore, ma ci vogliono 5 minuti per costruirlo. E non ci sono molte impostazioni.

Ho molta voglia di eseguire due file identici ma in diversi sistemi IIM e confrontare il risultato sotto forma di una sezione scambiata dell'EA, ma purtroppo non ci sono specialisti su questo forum che hanno sistemi IIM completi. Tutti qui stanno ancora cercando.... alas...... Trickster!!!! Hai trovato???? Il tuo AI.......

[Eliminato]  

Quelli che leggono/studiano il libro

google colab ha il supporto GPU

e TensorFlow è già installato.

L'unica parte difficile è lavorare con i file tramite api e google drive


Test delle prestazioni della scheda video:

Tempo (s) per convolvere il filtro 32x7x7x3 su immagini casuali 100x100x100x3 (lotto x altezza x larghezza x canale). Somma di dieci esecuzioni. CPU (s): 9.76737689972 GPU (s): 0.16198209479Accelerazione GPU su CPU: 60x

Non ho idea di come sia fatto, ma funziona tutto :)

e qui R naturalmente è andato a sbattere nel mezzo del...l

 
Maxim Dmitrievsky:

Quelli che leggono/ricercano il libro

google colab ha il supporto per la tua GPU

e TensorFlow già installato

In breve, non c'è bisogno di installare nulla, basta accedere attraverso il browser e lavorare. L'unico problema è lavorare con i file tramite api e google disk


Test delle prestazioni della mia scheda video:

Tempo (s) per convolvere il filtro 32x7x7x3 su immagini casuali 100x100x100x3 (lotto x altezza x larghezza x canale). Somma di dieci esecuzioni. CPU (s): 9.76737689972 GPU (s): 0.16198209479Accelerazione GPU su CPU: 60x

Non ho idea di come sia implementato, ma funziona :)


Questo è utile. Che tipo di laboratorio è questo?

[Eliminato]  
Mihail Marchukajtes:

Questo sì che è utile. Che tipo di laboratorio è questo?


Andiamo, Mikhail.

ma è una macchina virtuale e usano la loro gpuha)