L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 630

 
Yuriy Asaulenko:
Non voglio affermare, ma mi sembra che queste siano illusioni. Solo per ragioni generali.
Perché, Vladimir Perervenko ha alcune informazioni nei suoi articoli, imparano molto velocemente su centinaia di input
 
Maxim Dmitrievsky:
Perché, Vladimir Perevenko ha informazioni nei suoi articoli, sono addestrati molto velocemente su centinaia di input

Non ho letto gli articoli e non voglio discutere. Ho visto solo delle foto).

MLP, per esempio, può essere perfettamente addestrato in 10-15 minuti e funzionerà perfettamente. Sì, ma questo se i dati sono ben classificati, gli insiemi sono separati.

Se al contrario - se per esempio nel mercato (o nei vostri campioni di allenamento) semplicemente non ci sono insiemi separabili, allora insegnate qualsiasi cosa vi piaccia per sempre - non ci saranno risultati.

 
Maxim Dmitrievsky:
Perché, Vladimir Perevenko ha informazioni nei suoi articoli, imparano molto velocemente su centinaia di input

Tutto dipende dall'architettura e dalla quantità di dati.
Le reti per il riconoscimento dei modelli imparano per una settimana su GPU. E ci sono decine di strati con tensori tridimensionali.

 
Aleksey Terentev:

Tutto dipende dall'architettura e dalla quantità di dati.
Le reti per il riconoscimento dei pattern impiegano una settimana per imparare su una GPU. Ci sono decine di strati con tensori tridimensionali.

lì ha descritto i più semplici - rete di Boltzmann + MLP, per esempio

https://www.mql5.com/ru/articles/1103#2_2_2

Третье поколение нейросетей: "Глубокие нейросети"
Третье поколение нейросетей: "Глубокие нейросети"
  • 2014.11.27
  • Vladimir Perervenko
  • www.mql5.com
Нейросети второго поколения Глубокое обучение Практические эксперименты Программная реализация (индикатор и эксперт) Введение В статье будут рассмотрены основные понятия по теме "Глубокое обучение" (Deep Learning), "Глубокие нейросети" (Deep Network) без сложных математических выкладок, как говорят, "на пальцах". Будут проведены эксперименты с...
 
Yuriy Asaulenko:

Non ho letto gli articoli e non voglio discutere. Ho visto solo delle foto).

MLP, per esempio, può essere perfettamente addestrato in 10-15 minuti e funzionerà perfettamente. Sì, ma questo se i dati sono ben classificati, gli insiemi sono separati.

Se sul mercato (o nei vostri campioni di allenamento) semplicemente non ci sono set separabili, allora potete allenare qualsiasi cosa vogliate per sempre e non ci saranno risultati.

Facciamo semplicemente un esperimento per il bene della "conoscenza scientifica".
Scegliamo i dati, le dimensioni, l'architettura MLP, i dati di uscita.
E ognuno farà i propri test con i propri strumenti.

La quantità di fiamme diventerà minore.
A proposito, possiamo fare una tradizione del genere e testare ogni nuova architettura con il mondo intero. =)

 
Aleksey Terentev:

Facciamo un esperimento per il bene della "conoscenza scientifica".
Scegliamo i dati, le dimensioni, l'architettura MLP, l'uscita.
E ognuno farà i propri test con i propri strumenti.

La quantità di fiamme diventerà minore.
A proposito, possiamo fare una tradizione del genere e testare ogni nuova architettura con il mondo intero. =)

(Ho paura di essere troppo debole). Non vedo l'utilità di risolvere problemi astratti. E lo scambio di opinioni non è affatto una fiamma. Ho ottenuto molto da questa fiamma. E andò in un'altra direzione). E senza il flamming, avrei potuto anche ficcanasare.
 

Sto condividendo i primi risultati della mia NS. L'architettura è la stessa descritta nel dio, non ho cambiato nulla.

Il plateau è abbastanza uniforme, il NS ha imparato bene già a 1000 passaggi, i risultati non sono migliorati molto oltre.

Ho studiato per 15 minuti il mese scorso. Ho speso ~0,65$ per la formazione. Il mio numero mensile di offerte è ~300.

I risultati dei 2 mesi precedenti non sono male, ma nemmeno troppo male.

Proverò ad aggiungere un altro strato nascosto e a cercare più errori :) e poi proverò ad allenarmi per un periodo più lungo.

 

Maxim Dmitrievsky:
Perché, Vladimir Perervenko ha informazioni nei suoi articoli, imparano molto velocemente su centinaia di input


Tutti gli articoli forniscono set di dati e script che possono essere riprodotti per ottenere dati reali sui tempi di apprendimento specificamente sul vostro hardware. Il tempo di addestramento DNN con due strati nascosti è fino a 1 minuto.

Buona fortuna

 
Aleksey Terentev:

Facciamo un esperimento per il bene della "conoscenza scientifica".
Scegliamo i dati, le dimensioni, l'architettura MLP, l'uscita.
E ognuno farà i propri test con i propri strumenti.

La quantità di fiamme diventerà minore.
A proposito, possiamo fare una tradizione del genere e testare ogni nuova architettura con il mondo intero. =)

Fate un esempio. Iniziare con
 
Maxim Dmitrievsky:

Sto condividendo i primi risultati della mia NS. L'architettura è la stessa descritta nel dio, non ho cambiato nulla.

Il plateau è abbastanza uniforme, il NS ha imparato bene già a 1000 passaggi, i risultati non sono migliorati molto oltre.

Ho studiato per 15 minuti il mese scorso. Ho speso ~0,65$ per la formazione. Il mio numero mensile di offerte è ~300.

I risultati dei 2 mesi precedenti non sono male, ma nemmeno troppo male.

Proverò ad aggiungere un altro strato nascosto e a cercare più errori :) e poi proverò ad allenarmi per un periodo più lungo.

Avete tre neuroni all'ingresso del secondo strato processati dalla sigmoide? Come si regolano i pesi sul secondo strato che va da -1 a 1 in passi di 0,1 per esempio.

Nella mia rete, dopo l'elaborazione del secondo strato , il numero di accordi è sceso e i miei risultati non sono migliorati molto. Questo è diverso dal montare un perceptron con 9 ingressi e un neurone di uscita e poi prendere un altro perceptron indipendente e montarlo di nuovo con le impostazioni salvate del primo, ecc.

Motivazione: