rete neurale e ingressi - pagina 40

 
nikelodeon:

Quindi sto pensando... come interpretare il risultato... per renderlo più veloce e certamente non a mano........

Scelta: c, c++, java, javascript, mql4, mql5
 
Reshetov:
Da scegliere: c, c++, Java, JavaScript, mql4, mql5

Yuri plz.

Puoi dirmi come collegare MT4.5 con JAVA? Voglio davvero provare, almeno per leggere qualcosa.

 
Ho fatto un'interpolazione in Matlab. Naturalmente è ingombrante, ma ha formule lunghe, a differenza di Excel :-)
 
ivandurak:

Yuri plz.

Voglio usare il tuo mt4.5 in JavA e non ho idea di come usarlo.

Ci sono molti metodi, ma sono tutti macchinosi. Java non è stato progettato per applicazioni di basso livello, con lo scopo di essere indipendente dalla piattaforma. E MT manca di canali di comunicazione di alto livello che non siano legati a plaform - Windows.

Questo è il motivo per cui non li lego e scrivo generatori di codice in Java, i cui risultati posso facilmente incollare in MQL, C o Java.

 
Non ho ancora una chiara comprensione della positività di questa cosa. Ma durante l'ottimizzazione, il numero totale di errori non è sempre contato correttamente. E per qualche ragione il messaggio Bad Data viene visualizzato alla fine del processo di ottimizzazione! Cosa potrebbe essere?
 
nikelodeon:
Non riesco ancora a capire la positività di questa cosa. Ma durante l'ottimizzazione, il numero totale di errori non è sempre contato correttamente. E in questo caso, per qualche motivo alla fine dell'ottimizzazione visualizza un messaggio Bad Data!!! Cosa potrebbe essere?

Bad Data significa che il modello si sbaglia nelle sue "previsioni" più spesso che se non avessimo usato il modello. Cioè, il modello non è adatto all'applicazione. Il motivo: spazzatura negli ingressi. Cioè, gli input sono insignificanti.


Prendiamo i risultati dei test su un campione di controllo e compiliamo una tabella di contingenza:


Previsione del modello - Risultato reale (valore della variabile dipendente)
Risultato positivo
Risultato negativo
Risultato positivo
Vero positivo (TP)
Falso positivo (FP)
Risultato negativo
Falso negativo (FN)
Vero negativo (TN)


In questo caso la frequenza degli esiti positivi nel campione, cioè se prendiamo a caso un qualsiasi campione dal campione, sarà uguale a (TP + FN) / (TP + FN + FP + FN)

Se usiamo le previsioni del modello, la frequenza degli esiti positivi correttamente previsti dal modello sarà uguale a: TP / (TP + FP)

Affinché il modello sbagli meno spesso nel predire esiti positivi per i campioni rispetto a quando prendiamo a caso campioni arbitrari dal campione e trattiamo i loro esiti come positivi per default, è necessario e sufficiente che la condizione

TP / (TP + FP) > (TP + FN) / (TP + FN + FP + FN)

Se la condizione non è soddisfatta, allora il modello non è adatto a predire esiti positivi nella pratica, perché se prendiamo un qualsiasi esempio arbitrario dal campione e trattiamo il suo risultato come positivo per default, ci sbaglieremo non meno spesso che se trattiamo gli esiti positivi previsti dal modello.

 
Capisco, e capisco che hai bisogno di cercare un set di dati di input che riduce sostanzialmente gli errori e aumenta la capacità di generalizzare..... E questo con abbastanza record di dati ....
 
nikelodeon:
Vedo e capisco che è necessario cercare tale set di dati di input che ridurrebbe significativamente gli errori e aumenterebbe la capacità di generalizzazione..... E questo con abbastanza record di dati ....

Esattamente giusto. Cioè fino a 1023 predittori (dati di input) possono essere stipati alla volta. Dopo di che, se non appare nessun messaggio BadData, allora escludete dal campione (cancellate le colonne dal foglio di calcolo) quei predittori che sono segnati come sotto riduzione nella descrizione del modello.

Un campione dei predittori rimanenti può già essere eseguito di nuovo e sarà soggetto a trasformazioni del kernel. E le trasformazioni del kernel a loro volta daranno una maggiore generalizzabilità.

Le trasformazioni del kernel si attivano automaticamente se il numero di input (cioè le colonne con variabili esplicative) non supera 44. Se il numero di ingressi non supera i 10, allora si include MSUA, che dà la massima generalizzabilità.

 
Ottimo, tranne quando si aumenta la colonna più di 7, il tempo di ottimizzazione aumenta significativamente..... Non so nemmeno come aumentare la potenza.... Non voglio nemmeno parlare di 10 colonne. irrealisticamente lungo.... C'è un modo per risolvere il problema?
 
Ho preparato un campione di dati di 11 colonne + 1 colonna di output. Domanda: Quando si esegue il Predictor, quale numero di colonne deve essere specificato. Solo la quantità di dati (11) o insieme all'uscita (12) ????
Motivazione: