red neuronal y entradas - página 40

 
nikelodeon:

Así que estoy pensando... en cómo interpretar el resultado... para hacerlo más rápido y desde luego no a mano........

Elección: c, c++, java, javascript, mql4, mql5
 
Reshetov:
A elegir: c, c++, Java, JavaScript, mql4, mql5

Yuri, por favor.

¿Puedes decirme cómo enlazar MT4.5 con JAVA? Tengo muchas ganas de intentarlo, al menos para leer algo.

 
He hecho una interpolación en Matlab. Claro que es engorroso, pero tiene fórmulas largas, a diferencia de Excel :-)
 
ivandurak:

Yuri, por favor.

Quiero utilizar su mt4.5 en JavA y no tengo ni idea de cómo utilizarlo.

Hay muchos métodos, pero todos son engorrosos. Java no fue diseñado para aplicaciones de bajo nivel, con el propósito de ser independiente de la plataforma. Y la MT carece de canales de comunicación de alto nivel que no estén ligados a la plaforma - Windows.

Por eso no los ato y escribo generadores de código en Java, cuyos resultados puedo pegar fácilmente en MQL, C o Java.

 
Todavía no tengo clara la positividad de este asunto. Pero durante la optimización, el número total de errores no siempre se cuenta correctamente. Y, por alguna razón, al final del proceso de optimización aparece el mensaje "Bad Data". ¿Qué puede ser?
 
nikelodeon:
Todavía no puedo entender la positividad de este asunto. Pero durante la optimización, el número total de errores no siempre se cuenta correctamente. ¡¡¡Y en este caso, por alguna razón al final de la optimización muestra un mensaje Bad Data!!! ¿Qué puede ser?

Datos malos significa que el modelo se equivoca en sus "predicciones" con más frecuencia que si no hubiéramos utilizado el modelo. Es decir, el modelo no es apto para su aplicación. La razón: la basura en las entradas. Es decir, las entradas son insignificantes.


Tomemos los resultados de las pruebas en una muestra de control y elaboremos una tabla de contingencia:


Predicción del modelo \N - Resultado real (valor de la variable dependiente)
Resultado positivo
Resultado negativo
Resultado positivo
Verdadero positivo (TP)
Falso positivo (FP)
Resultado negativo
Falso negativo (FN)
Verdadero negativo (TN)


En este caso, la frecuencia de resultados positivos en la muestra, es decir, si tomamos al azar cualquier muestra de la misma, será igual a (TP + FN) / (TP + FN + FP + FN)

Si utilizamos las predicciones del modelo, la frecuencia de resultados positivos predichos correctamente por el modelo será igual a: TP / (TP + FP)

Para que el modelo se equivoque con menos frecuencia en la predicción de resultados positivos para las muestras que si tomamos muestras arbitrarias de la muestra al azar y tratamos sus resultados como positivos por defecto, es necesario y suficiente que la condición

TP / (TP + FP) > (TP + FN) / (TP + FN + FP + FN)

Si la condición no se cumple, entonces el modelo no es adecuado para predecir resultados positivos en la práctica, porque si tomamos cualquier ejemplo arbitrario de la muestra y tratamos su resultado como positivo por defecto, nos equivocaremos con no menos frecuencia que si tratamos los resultados positivos predichos por el modelo.

 
Ya veo, y entiendo que hay que buscar un conjunto de datos de entrada que reduzca sustancialmente los errores y aumente la capacidad de generalización..... Y eso con suficientes registros de datos ....
 
nikelodeon:
Veo y entiendo que es necesario buscar ese conjunto de datos de entrada que reduciría significativamente los errores y aumentaría la capacidad de generalización..... Y eso con suficientes registros de datos ....

Exactamente. Es decir, se pueden meter hasta 1023 predictores (datos de entrada) a la vez. Después, si no aparece el mensaje BadData, excluya de la muestra (borre las columnas de la hoja de cálculo) los predictores que están marcados como bajo reducción en la descripción del modelo.

Una muestra de los predictores restantes ya puede ser ejecutada de nuevo y será sometida a transformaciones del núcleo. Y las transformaciones del núcleo, a su vez, darán una mayor generalización.

Las transformaciones del núcleo se activan automáticamente si el número de entradas (es decir, las columnas con variables explicativas) no supera las 44. Si el número de entradas no es superior a 10, se incluye el MSUA, que proporciona la máxima generalizabilidad.

 
Estupendo, excepto cuando se aumenta la columna más de 7, el tiempo de optimización aumenta significativamente..... Ni siquiera sé cómo aumentar la potencia.... No quiero ni hablar de 10 columnas. Un tiempo poco realista.... ¿Hay alguna forma de arreglarlo?
 
He preparado una muestra de datos de 11 columnas + 1 columna de salida. Pregunta: Cuando se ejecuta el Predictor, ¿qué número de columnas hay que especificar? Sólo la cantidad de datos (11) o junto con la salida (12) ????
Razón de la queja: