La etiqueta del mercado o los buenos modales en un campo de minas - página 79

 
paralocus писал(а) >>

Por cierto, fíjate qué imagen tan característica obtengo de la distribución de la primera serie de diferencias sobre una serie de transacciones, si haces un desglose vertical de los minutos con un spread (3 puntos):

Si construyes la función de distribución, representa las características más claramente. Lo que has planteado es una visión de la FR desde arriba y una resolución temporal. Interesante, por supuesto, pero no tan ilustrativo.

Ahora está justo por encima de 2(2,153) luego se acerca a 2, luego se aleja, dependiendo de H, pero siempre justo por encima de 2

La naturaleza del mercado debe haber estado en tendencia. En los tramos grandes, la valoración tiende a ser <2.

 
Neutron >> :

Si construyes una función de distribución, representa las características más claramente. Lo que has planteado es una vista de la FR desde arriba y una resolución de la escala de tiempo. Interesante, por supuesto, pero no tan ilustrativo.

Ahora está justo por encima de 2(2,153) luego se acerca a 2, luego se aleja, dependiendo de H, pero siempre justo por encima de 2

La naturaleza del mercado debe haber estado en tendencia. En las parcelas más grandes, la estimación suele ser <2.

Lo construiré hoy. Tengo un periodo realmente pequeño de poco más de un mes (20 000 min) y mi CC no permite descargar un historial más largo de minas.



Anoche tuve una idea y me gustaría expresarla aquí. Se aplica a TODOS, señores.

Llamémoslo SOI (para que nadie lo adivine -:) )


Por lo tanto, para un análisis adecuado de los datos necesitamos un buen historial de garrapatas (estadísticamente suficiente y sin lagunas), del que no disponemos por razones obvias.

La esencia de la idea es cómo crearla con el menor esfuerzo y el mayor beneficio para cualquier comerciante. La solución es sencilla: alquilar servidores dedicados (2, o mejor 3) e instalar colectores de garrapatas en esos servidores... en cualquier herramienta y empresa de corretaje. Y no sólo eso (más adelante se hablará de ello). Una persona esta empresa será muy caro, pero la idea es sólo cómo hacerlo no es libre, pero barato, fiable y práctico.


Hagamos las cuentas:

****************************** *************************

1. alquilar un servidor virtual dedicado con espacio suficiente cuesta hoy en día unas 100 libras al mes (se necesitan 2 servidores independientes) ... 200 dólares al mes.

2. Haría falta un buen codificador para vigilar todo y parchear la historia.

Por supuesto, el codificador debería recibir algo de dinero por este trabajo. El trabajo diario no será mucho, así que 200 libras / mes (sin embargo, este no es el límite de lo que el codificador puede ganar en el proyecto)

De hecho, ¡eso son todos los costes básicos! 400 libras al mes.


También necesitará un recurso unificado en línea, que debe ser colocado:

a) Un mercado para vender la historia de la teca.

b) Un mercado de venta de EAs, donde se puede ver el trabajo actual de cualquiera de los EAs propuestos en la demo de forma gratuita.

c) Un foro en el que se acepta la crítica constructiva de DC.



***************************** REVENUE **************************

1. Pago por descargar el historial de ticks - 1 mes de ticks para cualquier instrumento de cualquier empresa de corretaje - 1WMZ (el pago es conveniente a través de WebMoney)

2. Cuota por alojar a los asesores en un servidor remoto (trabajo de verdad) - 20WMZ por semana (si el asesor no gana tanto, lo tira)

3. Cuota de alojamiento del asesor de demostración - 5WMZ por semana

4. Interés de los asesores, que fueron vendidos a través de la plataforma (no puedo decir la cifra exacta)

******************************************************************************************


En general, el proyecto parece bastante rentable y útil. MetaQuotes probablemente también estará interesada, ya que SOI será una buena publicidad para su producto - MT5.

En una palabra, todos ganan, excepto los DC. Sin embargo, las empresas de corretaje honestas no tienen nada que temer.

Para el inicio de cualquier concesión necesitamos accionistas. Personalmente estoy dispuesto a compartir el dinero en la cantidad de 100WMZ. ¿Quién más...?



 

1. Colecciono garrapatas para mis propias necesidades. Ya es suficiente.

2. Como proyecto comercial, este proyecto es inferior, en mi opinión, a otro proyecto de la marca "Forex".

3 Si sólo necesita garrapatas para el análisis, tiene que demostrar primero la viabilidad del proyecto. Muestre la renta real en ticks y demuestre su superioridad sobre otras formas de representar la serie de precios. Está claro que las referencias a las autoridades no son válidas.

Y la última. Cada uno negocia en la historia de su empresa de corretaje con su propio filtro de cotizaciones. Para esta empresa de corretaje en particular, NS está capacitada. Por lo tanto, ¡no estamos hablando de la universalidad del proyecto propuesto! ¿A quién le va a interesar, sino a ti? 1 o 2 personas más...

 
Sí, sobre los filtros, no había pensado en eso. Aunque ya escribí sobre ello ayer mismo... Gracias.
 
¿Has conseguido normalizar las entradas a una distribución constante? Últimamente he estado luchando con un problema similar. Describa la esencia del racionamiento con un ejemplo, quiero asegurarme de que entiendo correctamente sus dificultades. Si lo entiendo bien, podré sugerir una solución.
 
Tengo un tipo de dificultad diferente.
 
 

Pregunta a Neutrón y a Paralocus. Tengo entendido que Neutron entrena su malla con un método RPROP modificado, mientras que paralocus lo hace con un método BPROP modificado. En el método clásico RPROP, los pasos de peso se calculan multiplicando los gradientes del error de entrenamiento al cuadrado (dE^2/dw = -delta*Neuron_Input) por la tasa de aprendizaje. Este método puede aplicarse de forma local, al pasar de un conjunto de entrenamiento a otro, o de forma epocal, acumulando los gradientes de error de todos los conjuntos de entrenamiento y calculando después los pasos de ponderación. Su modificación es que los pasos de peso se multiplican adicionalmente por (1-L/N)*dw/sqrt(dwNorm). Neutrón sólo toma signos de incremento dw, como en RPROP. He probado casi todos los métodos de RPROP (BPROP, RPROP, IRPROP+/-, SARPROP, GRPROP) y he obtenido resultados bastante desalentadores. Cuando los pesos se inicializan con algunos números aleatorios (por ejemplo, en el rango de -0,5...0,5), el error de aprendizaje inicial es muy alto y los métodos de aprendizaje lo reducen con éxito. No hay ningún problema. Pero si los pesos se inicializan con valores cero o con valores aleatorios muy pequeños (por ejemplo, -0,05 ... 0,05), el error de aprendizaje inicial es pequeño e igual al error de aprendizaje final cuando los pesos se inicializan con números aleatorios "grandes". Entonces, ¿qué sentido tiene entrenar la red si sabemos que los pesos cero nos dan un error cercano al error final de aprendizaje cuando los pesos iniciales son aleatorios? Aquí hay un gráfico del error de entrenamiento con el método ORO modificado como paralocus (a juzgar por los posts anteriores, Neutron utilizó el mismo método al principio)


Todos los métodos de entrenamiento que he mencionado muestran aproximadamente el mismo comportamiento: una bonita e inspiradora reducción del error de aprendizaje de época en época con pesos iniciales aleatorios (se puede escribir un artículo o una disertación). Con pesos iniciales cero, el error ya es lo suficientemente pequeño como para que la red no lo mejore en absoluto. Este es el ejemplo de entrenamiento de IRPROP+ con los mismos datos de entrada



Es posible que este comportamiento del error de entrenamiento sea específico de mi red (dos capas, 12 entradas, 5 neuronas ocultas, 1 salida, 120 conjuntos de entrenamiento) o de los datos de entrada (incrementos de precios relativos con diferentes retrasos). Me gustaría ver cómo aprenden sus redes con pesos iniciales aleatorios y nulos. Si no te importa, muéstrame las gráficas del error de aprendizaje NO NORMAL en función de la época para estos dos casos.

Aquí estuve pensando un poco en mi resultado y llegué a la conclusión de que si los pesos de la red tienden a cero en el proceso de aprendizaje o, en otras palabras, los pesos iniciales cero están cerca del estado entrenado de la red, entonces la red intenta describir entradas y salidas muy débilmente correlacionadas, es decir, un mercado aleatorio en el que la predicción es imposible. He "inventado" tal teorema


 
gpwr писал(а) >>

Tal vez este comportamiento del error de aprendizaje sea específico de mi red (dos capas, 12 entradas, 5 neuronas ocultas, 1 salida, 120 conjuntos de entrenamiento), o de los datos de entrada (incrementos de precios relativos con diferentes retrasos). Me gustaría ver cómo aprenden tus redes con pesos iniciales aleatorios y nulos.

Este es el aspecto del proceso de reducción del error de aprendizaje de un NS bicapa, en función del número de épocas:

La red tiene 5 entradas, 4 neuronas en la capa oculta y una neurona en la salida. Los precios abiertos del EURUSD1h normalizados a su desviación estándar se utilizaron como vector de entrenamiento. En la Fig. los círculos muestran el error de entrenamiento encontrado como una desviación estándar promediada en 50 experimentos numéricos sin normalizar el error a la longitud del vector de entrada. Las líneas finas muestran la dispersión estadística en el nivel 1/e. El azul muestra la implementación de este proceso para la aleatorización inicial de los pesos en el rango 0. El rojo muestra el rango +/-1 con una distribución en forma de banda.

Se observa que NS aprende mucho mejor si se realiza la inicialización de los pesos mediante valores aleatorios, en comparación con el hecho de partir de cero. Además, el aumento del rango de aleatoriedad inicial de los pesos conduce en el caso general a la reducción del error de aprendizaje final. Sin embargo, esto supone un aumento del número de épocas necesarias (el gráfico, en su conjunto, sube).

 
Neutron >> :

Así es como se ve el proceso de reducción del error de aprendizaje del NS bicapa en función del número de épocas:

La red tiene 5 entradas, 4 neuronas en la capa oculta y una neurona en la salida. Los precios abiertos del EURUSD1h normalizados a su desviación estándar se utilizaron como vector de entrenamiento. En la Fig. los círculos muestran el error de entrenamiento encontrado como una desviación estándar promediada en 50 experimentos numéricos sin normalizar el error a la longitud del vector de entrada. Las líneas finas muestran la dispersión estadística en el nivel 1/e. El azul muestra la implementación de este proceso para la aleatorización inicial de los pesos en el rango 0. El rojo muestra el rango +/-1 con una distribución en forma de banda.

Se observa que NS aprende mucho mejor si se realiza la inicialización de los pesos mediante valores aleatorios, en comparación con el hecho de partir de cero. Además, el aumento del rango de aleatoriedad inicial de los pesos conduce en el caso general a la reducción del error de aprendizaje final. Sin embargo, esto supone un aumento del número de épocas necesarias (el gráfico en su conjunto sube).

Gracias. ¿Por qué la dispersión estadística se dibuja cerca de los círculos azules? Si los pesos comienzan con valores cero, no debería haber ninguna dispersión estadística.

Una pregunta más. Si se utilizan los precios de apertura del EURUSD1h normalizados por su desviación estándar, entonces su media no es cero. ¿O has restado la media?

Razón de la queja: