Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Se facessi grafica e animazione 3D, scriveresti il tuo 3DStudioMAX?
Sono cose diverse...
Ti ho dato un esempio concreto... prova a cambiare la funzione di errore nel tuo programma di rete neurale preferito...
Dolcemente parlando si vuole dire che 2DMAX è uguale a Neuroshell in termini di funzioni e dimensioni del codice ????
bene, bene...
E non permette la seguente idea - per ottenere un profitto con questo programma, non è necessario modificare questa funzione di errore in esso?
Grazie a questa tua graziosa dichiarazione, ora sappiamo che non hai nessun concetto di ottimizzazione nei tuoi kinspecks dai migliori esperti di NS.
E voi a vostra volta non permettete la seguente idea - che vivete in un paese un po' diverso dal nostro,
e quindi non si dovrebbe avere un software per ottimizzare completamente la creazione e l'uso di NN?
Grazie a questa tua graziosa dichiarazione, ora sappiamo che non hai nessun e nessuna nozione di ottimizzazione nei tuoi kinspecks da NS's finest.
:-)
Ha capito quello che ha scritto? )))
Non importa come si torce il NS, qualunque cosa si dia agli ingressi, non ci sono miracoli, naturalmente!
Quindi, cosa si scopre: da un lato, più la stratificazione di NS, maggiore è il suo potere predittivo, ma non ha senso costruire più di tre strati - la griglia a tre strati è già un approssimatore universale. D'altra parte, tutto quello che fa la scatola nera chiamata NS è trovare e sfruttare i processi quasi-stazionari nel mercato. Non c'è altra soluzione. Esattamente, quasi-stazionario, non stazionario del tutto (semplicemente non ci sono tali processi sul mercato) e non non stazionario (tali processi non possono in linea di principio essere sfruttati). Ho dato sopra un link per derivare la relazione ottimale tra il numero di sinapsi NS - w, dimensione del suo ingresso - d e la lunghezza ottimale del campione di allenamento P (4 o 5 pagine dell'argomento): w^2=P*d
Quindi, maggiore è la complessità del NS, maggiore è la lunghezza del campione di allenamento che dovrebbe essere usato per il suo addestramento. Non solo la complessità dell'addestramento aumenta come P^3, ma i dati potrebbero anche essere insufficienti! Ma la trappola più grande si trova dove non te l'aspetti: i processi quasi-stazionari (quelli che il nostro NS identifica nella coalizione e poi sfrutta) hanno una vita caratteristica (a tutti, diversa da zero e più piccola di alcuni). È chiaro che su un grande campione di allenamento, c'è una maggiore probabilità di cambiamento del processo selezionato... vedi? Più breve è il campione di allenamento, meglio è - meno possibilità di essere fregati da un cambiamento nel sentimento del mercato! Qui, sembra che la risposta alla domanda "Qual è meglio - un NS a 2 strati con un breve campione di allenamento, o un potente 3 con tre università alle spalle (durante l'apprendimento, tutto è diventato inutile)?", sarà data da un semplice esperimento.
Per questo, ho lanciato tre griglie - 1,2 e 3 in Mathcad, e ho confrontato i risultati della previsione di un segno di incrementi di cotier un conteggio avanti (ho raccolto le statistiche di 100 esperimenti indipendenti). I risultati sono i seguenti:
1 - p=10% di segni indovinati correttamente (probabilità=1/2+p).
2 - 15-16%
3 - 12%
Ci sono alcuni parametri liberi qui: dimensione dell'input e numero di neuroni nello strato(i). Il primo parametro era lo stesso per tutte le architetture, il secondo è stato scelto personalmente. Vediamo che la griglia NS a 3 strati non è una panacea, e forse per noi trader, l'opzione migliore per l'unità analitica MTS è una griglia a due strati - dal punto di vista della massima precisione di previsione e dei requisiti minimi per la complessità della formazione (potenza della RS, grande storia e sua non crescita).
Non importa come si torce il NS, qualunque cosa si dia agli ingressi, non ci sono miracoli, naturalmente!
Quindi, cosa si scopre: da un lato, più la stratificazione di NS, maggiore è il suo potere predittivo, ma non ha senso costruire più di tre strati - la griglia a tre strati è già un approssimatore universale. D'altra parte, tutto quello che fa la scatola nera chiamata NS è trovare e sfruttare i processi quasi-stazionari nel mercato. Non c'è altra soluzione. Esattamente, quasi-stazionario, non stazionario del tutto (semplicemente non ci sono tali processi sul mercato) e non non stazionario (tali processi non possono in linea di principio essere sfruttati). Ho dato sopra un link per derivare la relazione ottimale tra il numero di sinapsi NS - w, dimensione del suo ingresso - d e la lunghezza ottimale del campione di allenamento P (4 o 5 pagine dell'argomento): w^2=P*d
Quindi, maggiore è la complessità del NS, maggiore è la lunghezza del campione di allenamento che dovrebbe essere usato per il suo addestramento. Non solo la complessità dell'addestramento aumenta come P^3, ma i dati potrebbero anche essere insufficienti! Ma la trappola più grande si trova dove non te l'aspetti: i processi quasi-stazionari (quelli che il nostro NS identifica nella coalizione e poi sfrutta) hanno una vita caratteristica (a tutti, diversa da zero e più piccola di alcuni). È chiaro che su un grande campione di allenamento, c'è una maggiore probabilità di cambiamento del processo selezionato... vedi? Più breve è il campione di allenamento, meglio è - meno possibilità di essere fregati da un cambiamento nel sentimento del mercato! Qui, sembra che la risposta alla domanda "Qual è meglio - un NS a 2 strati con un breve campione di allenamento, o un potente 3 con tre università alle spalle (durante l'apprendimento, tutto è diventato inutile)?", sarà data da un semplice esperimento.
Per questo, ho lanciato tre griglie - 1,2 e 3 in Mathcad, e ho confrontato i risultati della previsione di un segno di incrementi di kotier un conteggio avanti (ho raccolto le statistiche di 100 esperimenti indipendenti). I risultati sono i seguenti:
1 - p=10% di segni indovinati correttamente (probabilità=1/2+p).
2 - 15-16%
3 - 12%
Ci sono alcuni parametri liberi qui: dimensione dell'input e numero di neuroni nello strato(i). Il primo parametro era lo stesso per tutte le architetture, il secondo è stato scelto personalmente. È chiaro che la griglia NS a 3 strati non è una panacea, e forse per noi commercianti l'opzione migliore per l'unità analitica MTS è una griglia a due strati - dal punto di vista della massima precisione di previsione e dei requisiti minimi per la complessità della formazione (potenza della RS, grande storia e sua non crescita).
Mi chiedo se qualcuno ha provato a usare NS per la predizione dei numeri della lotteria.
gpwr, ti stai prendendo gioco di tutti! - si tratta di predire il numero della lotteria. E per favore rimuovi la citazione del mio post - aggiungerà ancora più localismo al tuo post :-)
Ho già dato sopra un link alla conclusione della relazione ottimale tra il numero di sinapsi NS - w, la dimensionalità del suo input - d e la lunghezza ottimale del campione di allenamento P (4 o 5 pagine dell'argomento): w^2=P*d