"New Neural" è un progetto di motore di rete neurale Open Source per la piattaforma MetaTrader 5. - pagina 74

 
Urain:
Facciamo un esperimento, creiamo una griglia di 1000 neuroni con 100 connessioni per neurone, e postiamo la dimensione del file

~6 MByte

Rete 100x1000x1 - full mesh

Allegato ))

Ora dimmi, per favore, come hai intenzione di allenarlo?

Conosco solo un tipo di reti che possono avere dimensioni simili, ma non hanno bisogno di essere addestrate e memorizzate. Sono formate in un solo passaggio da un campione di allenamento e stupidamente lo ricordano.

Una tale rete non può essere addestrata con GA da tutti i computer di tutti i film di fantascienza messi insieme: la dimensionalità dello spazio di ricerca è 100 000

O piuttosto, credo che una tale rete memorizzerà semplicemente il campione di allenamento, e si otterrà una schermata di tutta la storia invece di una generalizzazione.

Devi stare più attento alla scelta dell'architettura ))

File:
UrainTask.zip  93 kb
 
yu-sha:

~6 MByte.

Attaccato ))

Ora ditemi, per favore, come lo insegnerete?

Sì, per insegnare solo nessun problema, ho scritto sopra che per UGA 100 000 parametri è un compito accettabile, non posso dire che l'inezia ma fattibile.

Ma la dimensione è abbastanza normale, non dovete più preoccuparvi, come si dice la questione è chiusa.

 
Urain:

Non è un problema allenarsi, ho scritto sopra che per UGA 100 000 parametri è un compito abbastanza accettabile, non posso dire che sia facile, ma è fattibile.

Ma la dimensione è abbastanza normale, non dovete più preoccuparvi, come si dice, la questione è chiusa.

Anche se si imposta la risoluzione di ogni parametro a 0,1, il numero di combinazioni di tutte le possibili combinazioni di una ricerca completa è 10^100000

Hai un'idea molto brillante di GA.

 
yu-sha:

Anche se si imposta la discrezione di ogni parametro a 0,1, il numero di combinazioni di tutte le possibili combinazioni di una ricerca completa è 10^100000

Hai un'idea molto brillante di GA

Non ho idee arcobaleno, ho una conoscenza pratica dell'uso di questo algoritmo, UGA non è un algoritmo binario che ha bisogno di dividere lo spazio di ricerca in grafi.

UGA conduce la ricerca parallela in tutte le misure simultaneamente, passo dopo passo diminuendo il passo automaticamente, che gli dà un'opportunità di tempo ragionevole per raggiungere un risultato robusto, e più per la formazione di una griglia e non è necessario, ulteriormente ci sarà riqualificazione. Di solito in 10000-50000 FF il risultato è raggiunto indipendentemente dal numero di parametri.

 
yu-sha:

~6 MByte

Rete 100x1000x1 - full mesh

Allegato ))

Ora dimmi, per favore, come hai intenzione di allenarlo?

Conosco solo un tipo di reti, che possono avere un ordine di grandezza simile, ma non si allenano e non hanno bisogno di essere memorizzate. Si formano in un solo passaggio da un campione di allenamento e stupidamente lo ricordano.

Una tale rete non può essere addestrata con GA da tutti i computer di tutti i film di fantascienza messi insieme: la dimensionalità dello spazio di ricerca è 100 000

O piuttosto, credo che una tale rete memorizzerà semplicemente il campione di allenamento, e si otterrà una schermata di tutta la storia invece di una generalizzazione.

Devi stare più attento alla scelta dell'architettura ))

È chiaro che nessuno ha bisogno (è inutile) di una tale rete. Ecco perché si parla di un'architettura libera (scalabile).

Per il gusto di sperimentare, cercherò di insegnarlo con GA sul mio piccolo dispositivo con N450. Cosa insegnare, quanti esempi, errori, ecc.

P.S. Mentre imparo, studierò i vostri codici.

 
lei.umana:

È chiaro che nessuno ha bisogno di una tale rete (inutile). Ecco perché si parla di architettura libera (scalabile).

Per il gusto di sperimentare, proverò a insegnare con GA sul mio piccolo ferro con N450. Cosa insegnare, quanti esempi, errori, ecc.

Quale GA ha intenzione di insegnare?
 
Urain:

Non ho idee arcobaleno, ma conoscenze pratiche sull'uso di questo algoritmo, UGA non è un algoritmo binario che ha bisogno di partizionare lo spazio di ricerca in grafi.

UGA esegue la ricerca parallela su tutte le misure simultaneamente, riducendo passo dopo passo il passo automaticamente, che gli dà l'opportunità di raggiungere un risultato robusto in un tempo ragionevole, e inoltre per l'addestramento di una griglia non è necessario, in seguito ci sarà la riqualificazione. Di solito in 10000-50000 FF il risultato è raggiunto indipendentemente dal numero di parametri.

Riconosciuto. Evidenziato in grassetto è un risultato robusto (non necessariamente un massimo assoluto).

La cosa principale è che è possibile allenare maglie di dimensioni enormi. E se queste enormi maglie sono necessarie, dipende da ogni particolare nodo. :)

 
joo:

Riconosciuto. Evidenziato in grassetto è un risultato robusto (non necessariamente un massimo assoluto).

La cosa principale è che è possibile allenare maglie di dimensioni enormi. E se queste enormi maglie sono necessarie dipende dalla coscienza di ogni singolo nodo. :)

Per non dipingere una prospettiva completamente rosea, dovremmo aggiungere che anche se il numero di FF corre quasi non cresce (per ottenere una soluzione robusta) il tempo di trovare il risultato aumenta, perché l'algoritmo deve essere eseguito da ordini di grandezza più array (quindi in realtà fa più operazioni), ma in un primo momento cresce linearmente, e in secondo luogo durante i test la velocità di FF e in particolare la velocità NS come parte di FF è sempre stato un ostacolo principale, con grave accelerazione di NS su GPU è previsto e accelerazione di trovare la soluzione in generale per GA.

Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования
Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования
  • www.mql5.com
Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования - Документация по MQL5
 
Urain:
E quale GA ha intenzione di insegnare?

Il punto non è quale. Mi chiedo solo se il GA con un hardware così debole ce la farà?

Una versione alleggerita dell'algoritmo joo.

 
lei.umana:

Il punto non è quale. Mi chiedo solo se il GA con un hardware così debole ce la farà?

Una versione leggera dell'algoritmo joo.

Una volta ho pensato di scrivere un tester per l'apprendimento di piccole griglie con GA, come quella che ho disegnato sopra, 6 pesi, 3 neuroni, problema XOR, ma non ho tempo per farlo :)