"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 98

 
Maxim Dmitrievsky:

No tienen que ser estrictamente periódicas, pero tampoco tienen que ser ruidosas. El panorama es probabilístico, no estricto. La ventana deslizante está pensada para el indicador de entropía, así como el número de características para el entrenamiento, pueden ser optimizados.

Si las muestras son incoherentes no se consigue nada, por eso hay tantos errores 50\50. Y un bucle no puede ser contradictorio, o existe o no existe, de cualquier forma. Si añades muchos bucles diferentes, no se contradicen.

Un ciclo es un concepto relativo dentro de la métrica de la entropía.

¿Y cómo se mide el grado de entropía de los datos?

 
Maxim Romanov:

¿Y cómo se mide el grado de entropía de los datos?

arriba hay un enlace a mi wiki y a la de Alexander en el Hubr

 
kapelmann:

Ciertamente no los he mirado todos, pero todos esos "con fuentes en MQL" todos sin redes neuronales propiamente dichas, sino esencialmente un ejercicio de POO en forma de wrappers a varias librerías o al mismo NeuroPro, francamente después de una docena de artículos así leídos, todos parecen iguales, a veces incluso parece que la POO para robots de stock es más perjudicial que útil, en mi opinión la POO para proyectos a partir de 100 mil líneas empieza a mostrar ventajas, y cuando tres funciones envuelven a cinco clases e incluso con herencia es ridículo.


PD: por favor, no me enseñes a buscar en Internet, da enlaces específicos al CÓDIGO ABIERTO de las redes neuronales, no Vopers, no reescribiendo libros y artículos.

Estos dos párrafos se contradicen. Cualquiera que sepa buscar en Internet (en particular en este sitio) encontrará rápidamente implementaciones de tipos NS básicos en MQL puro sin dependencias ni envoltorios.

 

Es imposible hacer una matriz normal en MQL sin muletas. ¿De qué tipo de NS estamos hablando con unas capacidades lingüísticas tan reducidas?

Mucha gente aquí no puede ni siquiera reproducir la fórmula de MLP.

 

Se toman los retornos de la serie original y se les quita la media y la varianza. Sobre esta base, se generan los retornos de la distribución normal y se restablece la distribución original.

La entropía se midió en ambas series. En la gran mayoría de los casos es lo mismo, es decir, las comillas son SB.

Y por retornos la diferencia es como debe ser (la entropía es mayor en el azar):

No parece haber suficiente sensibilidad para la fila desnuda. Me pregunto si sus NS tienen suficiente "sensibilidad". Dudoso.

Y aquí hay una salida de Bitcoin (debería ser menos eficiente aún, supuestamente). Y efectivamente.

Especialmente en H4.

 
Roffild:

Es imposible hacer una matriz normal en MQL sin muletas. ¿De qué tipo de NS estamos hablando con unas capacidades lingüísticas tan reducidas?

Mucha gente aquí no puede ni siquiera reproducir la fórmula de MLP.

¿Se cayó de la luna o del horno cuando era niño?

 
Maxim Dmitrievsky:

Se toman los retornos de la serie original y se les quita la media y la varianza. Sobre esta base, se generan los retornos de la distribución normal y se restablece la distribución original.

La entropía se midió en ambas series. En la gran mayoría de los casos es lo mismo, es decir, las comillas son SB.

Y en las devoluciones la diferencia es la que debería ser (la entropía es mayor en los aleatorios):

No parece haber suficiente sensibilidad para la fila desnuda. Me pregunto si sus NS tienen suficiente "sensibilidad". Dudoso.

Y aquí hay una salida de Bitcoin (debería ser menos eficiente aún, supuestamente). Y efectivamente.

Especialmente en H4.

¡Bien hecho!

Y la propia entropía en ventanas temporales deslizantes, ¿cómo se comporta?

Obviamente, si realizamos estudios con ventanas temporales móviles de múltiplos de 1 hora (en datos de un minuto son 60, 120, 180, ...), entonces deberíamos identificar aquellas ventanas donde la entropía es mínima en promedio.

Estas son las muestras con las que hay que trabajar, estoy seguro de que NS encontrará regularidades en ellas.

 
Грааль:

Hay un Alglib portado (https://www.mql5.com/en/code/11077).

La iniciativa joo estaba condenada a la infamia, y no porque la gente no sea colaboradora, sino porque es una idea inútil.

Bien, gracias, lo estoy investigando.

Alexander_K:

Porque aquí no hay un verdadero líder con conocimientos, para que los pupilos no pasen por sus opciones, y lo escuchen como niños.

Cuando leí este hilo, se me saltaron las lágrimas por mis mejillas seniles: cómo le rogaron a algunos pendos que tomaran el timón, pero él mismo no tiene ni idea y .... Eso es, estamos jodidos.

Una rama vergonzosa e instructiva.

Los eslavos necesitan un líder, padre, severo pero justo, está en los genes, es lógico que los eslavos lo sientan y pidan a otras razas (anglosajones, judíos, árabes...) que les manden, tiene sentido, los eslavos no toleran a su líder, a no ser que esté mitificado hasta el nivel de profeta o ungido por Dios.

 
Maxim Dmitrievsky:

Más tarde, escribió un jpredictor independiente en java, con 2 redes neuronales (mlp y svm, más concretamente) con selección automática de características

Por lo que sé "jpredictor" sigue teniendo la misma neurona entrenada por optimización de parámetros, la salida de jpredictor son los pesos de una neurona, lo que obviamente no es algo de lo que estar orgulloso.

 
Maxim Dmitrievsky:

La entropía se mide en ambas filas. Es abrumadoramente igual, es decir, las cotizaciones son SB.

el nivel de lógica es asombroso ))
Razón de la queja: