Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2539

 
Cetro:

Mi opinión es sólo Open o tics.

Bueno, eso es una cuestión de opinión. En términos de certeza de tiempo cerca es el más preciso.

 

Y estaría agradecido si alguien pudiera responder. Acabo de empezar a leer este hilo. Llevo unas 100 páginas. Interesante, gracias a los autores de la primera época. Es como un diario. Errores, descubrimientos, decepciones, alegrías del éxito, esperanzas frustradas... Una novela, en el buen sentido de la palabra. Aprendí algo nuevo, recordé algo viejo, me reí (no sin esto). La vida cotidiana de un prospector en toda regla. Mi pregunta es sencilla, en este aprendizaje automático, ¿la "máquina" seguirá siendo una caja negra? ¿Han investigado las "tripas" de qué y cómo se cocina? ¿Tal vez intentaron traducir la máquina al lenguaje MQL que encuentran aquí?

Seguramente terminaré el hilo, de momento va bien, pero agradecería spoilers)

 
Andrei Trukhanovich #:

Bueno, eso es una cuestión de opinión. En cuanto a la certeza del tiempo, el cierre es el más preciso.

en cuanto a la incertidumbre en la vela, sabemos o bien la hora o bien el precio exactamente... para el cierre la hora, para la apertura el precio :-)

En sentido figurado, cuando desde las 15.58 hasta las 16.03 no hay ticks (y esta es una situación normal, hay momentos típicos de tales agujeros), entonces el cierre conoce la hora 16.00 pero el precio equivocado, y para la apertura el tiempo equivocado es el precio correcto/relevante

 
Cetro:

Y estaría agradecido si alguien pudiera responder. Acabo de empezar a leer este hilo. Llevo unas 100 páginas. Interesante, gracias a los autores de la primera época. Es como un diario. Errores, descubrimientos, decepciones, alegrías del éxito, esperanzas frustradas... Una novela, en el buen sentido de la palabra. Aprendí algo nuevo, recordé algo viejo, me reí (no sin esto). La vida cotidiana de un prospector en toda regla. Mi pregunta es sencilla, en este aprendizaje automático, ¿la "máquina" seguirá siendo una caja negra? ¿Han investigado las "tripas" de qué y cómo se cocina? ¿Tal vez intentaron traducir la máquina al lenguaje MQL que encuentran aquí?

Seguramente terminaré el hilo, de momento va bien, pero agradecería algún spoiler)

Para alcanzar la iluminación empieza con una rama en Onyx y sólo entonces empieza esta *sarcasmo


Leer libros

 

Creo que la filosofía aquí es simple:

(H+L)/Cerrar. es decir, cerrar. como lo más justo (equilibrio) en el momento actual(!), H/Cerrar+L/Cerrar, como la suma de fracciones en el lapso de tiempo, con un total de + o - es decir, resultado de impulso arriba/abajo... imho


Cetro:

. Mi pregunta es sencilla, en este aprendizaje automático, ¿la "máquina" seguirá siendo una caja negra? ¿Le das entradas/predicados y quieres obtener una respuesta para el día?

...y la respuesta es bastante sencilla.
Maxim Kuznetsov #:

En teoría, sí, pero ¿dónde está el vector de pesos o la transformación de coordenadas adelante+atrás?

El MNC es un método casi universal, qué puedo decir... Es abstracto, pero para que funcione se necesita la física del proceso...

.. VMNC - MNC ponderado (escalas, por ejemplo, de dispersión)... en general, me parece que todo lo brillante debería ser sencillo...

Renat Akhtyamov #:

no saben lo que están cocinando

predictores de la MO probablemente (se trata de escalas)

Sospecho que componen una función como

precio = a1*y1+a2*y2+...aN*yN

un truco lógico en principio

es interesante lo que va a resultar

sólo que si lo divides en segmentos, probablemente también tengas que multiplicar cada parte por algo relacionado con el ángulo

polinomio - para el análisis multivariante (y su fórmula - ¡¡¡lineal!!! - por cierto , el coeficiente a en su y [aunque x] es el ángulo) - ... para un solo factor - sólo una ecuación típica de línea recta (y=kx+bias)...

y aquí empieza la parte más interesante de la diferenciación - el orden del polinomio (=número de sus curvas-1 y la propagación de la señal desde el principio de la formación hasta el final) - ciertamente no hay que dejarse llevar, pero si la realidad es tal que dy/dx=a^3x (no es una dependencia lineal) y más. -- entonces no creo que haya mucho que hacer aquí -- tomar la derivada de lo que hay (creo que he visto en algún sitio recomendaciones para la diferenciación en función de las diferencias de 1s y 2s => elegir el grado del polinomio -- no lo encuentro)... O considerar el CDF y descartar los persentiles extremos... imho para encontrar la media... O para explotarlos como señales en el análisis de la desviación de la media... imho... Así es como Maxim Dmitrievsky lo expresó en términos de ML

+ y el problema de un gradiente amortiguado o aumentado está siempre a la orden del día... Supongo que aquí es donde la ponderación adecuada resulta útil... Aunque la filosofía de la ponderación puede ser diferente para los partidarios de la "libertad de elegir pesos"... Odio a los luchadores por la libertad en lengua rusa (por lo que empiezan a distorsionar las correlaciones reales y las relaciones causa-efecto en las fórmulas también) - la diferenciación correcta (es decir, las variables correctas) dará pesos correctos, y la arquitectura NN correcta ayudará a llevar la importancia de los pesos al resultado del aprendizaje... imho

p.d.

de todos modos, para mí las fracciones H y L de cerca inspiran más confianza que sólo cerca... - ese es el punto aquí - para establecer las escalas correctamente en la caja negra (es por eso que es importante lo que está en la entrada y lo que está fuera) - para no obtener irrazonablemente alta / baja dispersión ... y no perder gradiente significativo en la etapa de aprendizaje - y como Mikhail Mishanin ya dijo (antes de que el hilo se hunde en las inundaciones y disputas) - "dejar que el más importante para sobrevivir y evolucionar"

en NN - casi como en Titanik

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2017.07.23
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

Yo comercio con un polinomio como este y no lo sudo

double decision = -0.07651082803761469 * sigmoid(x1 + x2 + x3) -0.04311207233300622 * sigmoid(x1 + x3 + x4) -0.05386865347421374 * sigmoid(x0 + x1 + x5) -0.00827465962899799 sigmoid(x1 + x2 + x4 + x5) -0.10576034451547747 * sigmoid(x4 + x6) -0.10960470278870797 * sigmoid(x0 + x2 + x3 + x5 + x6) -0.07378595451557275 * sigmoid(x0 + x1 + x2 + x4 + x5 + x6)  + 0.12026124486704332 * sigmoid(x7)  -0.06493964309873379 * sigmoid(x0 + x1 + x4 + x5 + x7)  -0.019388523137606112 * sigmoid(x1 + x2 + x4 + x5 + x7)  + 0.11097666707952629 * sigmoid(x4 + x6 + x7)  -0.0850998961499252 * sigmoid(x2 + x5 + x6 + x7)  -0.07273316247296563 * sigmoid(x0 + x4 + x8)  -0.2787231204565592 * sigmoid(x1 + x3 + x5 + x8)  -0.05990910736573329 * sigmoid(x0 + x1 + x4 + x6 + x8)  -0.0678407759220267 * sigmoid(x0 + x1 + x5 + x6 + x8)  -0.009089263426671367 * sigmoid(x0 + x2 + x3 + x4 + x7 + x8)  -0.10259720462275745 * sigmoid(1.0 + x3 + x4 + x8);
Como he dicho antes, el polinomio en sí no es tan importante como el método para obtenerlo. Pero todo el mundo se queda sordo cuando no puede entender una simple frase...
 
JeeyCi # :

Sigo confiando más en las acciones H y L de close que en close...

Lo añadiré/refutaré yo mismo:

y aquí de nuevo el mismo problema - las recomendacionesaquí- fracciones pueden no ser una panacea, pero el rango dinámico puede no ser en absoluto "diferencia de período entre 2 cierres"

Khristian Piligrim #:

Por supuesto, es muy importante para un rendimiento estable y una previsión eficaz entrenar correctamente el modelo, y para ello lo primero que hay que hacer es formar correctamente los datos de entrada. Para ello, primero escalé los datos de entrada por analogía con lo que hice en mi artículo "The Principle of Superposition and Interference in Financial Instruments" y, a continuación, desplacé la rejilla de escalado para que los datos estuvieran siempre en el mismo rango dinámico, sin importar cómo cambiara el mercado, rechacé los métodos de normalización tradicionales, ya que distorsionan demasiado los datos. En la siguiente fase he intentado que el vector en relación con el cual se ha realizado el entrenamiento esté totalmente cubierto por las variables de entrada, en la fig. 1. - pobre solapamiento, en la Fig. 2. - es mucho mejor y, en consecuencia, la precisión del entrenamiento será significativamente mayor (la línea negra es el vector respecto al cual se realiza el entrenamiento, las otras líneas son las señales de entrada).

es decir, la normalización de la varianza y no es especialmente adecuada... (

? tal vez, en el coeficiente de racionamiento para los datos entrantes añadir también WMA, o simplemente por el peso - después de todo, refleja la dinámica (aunque con un retraso)

p.d.

1) pero tal vez el "rango dinámico" es dolorosamente simple - el punto de intersección de 2 MAs - es importante conseguir los períodos correctos... sólo los OTFs miran a 50 y 200... pero para el análisis de bigData se pueden encontrar periodos de MA más favorables mediante la memoria de la red neuronal (con otros factores de acompañamiento)... imho

2) aunque personalmente me parece que el "rango dinámico" es el de aquellos periodos en los que el precio todavía se distribuía normalmente de Nivel a Nivel (supongo que se podría decir cluster -- hizo un mark-up y volvió a trabajar/clasificar por pesos/características/memoria ya definidos en el mercado anteriormente -- antes de la llegada del nuevo OTF)... pero cómo explotar esta lógica en el racionamiento de la entrada - no sé todavía (excepto sólo para hacer todos los mismos dy/dx además de sólo t-estadística)... Es malo, por supuesto, que el probador de la estrategia no seleccione las características (índices) por sí mismo, y la optimización es posible sólo para lo que se le da (y lejos de la información de la fuente limpia) ... - Así que la gente tiene que ir a ML

Piligrimus - нейросетевой индикатор.
Piligrimus - нейросетевой индикатор.
  • 2009.05.29
  • www.mql5.com
Между делом, сделал сегодня черновой вариант индикатора на формализованной неронной сети...
 
Tienes una mina de oro y no puedes ver bajo tus pies.
 
BillionerClub #:
Tienes una mina de oro y no puedes ver debajo de los pies

Está claro que la SVM permite la separación lineal de las dependencias no lineales (pero la reducción de la dimensionalidad tiene que ajustarse de alguna manera - tiene sus propios matices)... pero en primer lugar el análisis multivariante (con salida de regresión múltiple polinómica) es para mí tan poco, cuando todos los factores influyen entre sí, y no sé cómo la biblioteca hace su feature_extraction (y hay un montón de matices en la estadística) ... Y en segundo lugar, para recoger los hiperparámetros correctos para SVM en python - también es necesario conocer la biblioteca de alguna manera... muchos están pisando fuerte aquí (la biblioteca es decente) - mientras los matices que describí el proceso de modelado con esta biblioteca no genere un modelo sobre/bajo/infra-entrenado, sobre-entrenado o sub-entrenado...

para entender esta biblioteca, si la ves por primera vez, tendrás que mirar bajo tus pies durante mucho tiempo...

la parte "dorada" es discutible... sigo siendo escéptico en cuanto a no poder mantener las tendencias y saltar de ellas antes de tiempo por culpa del robot... Pero tampoco quiero sufrir drawdowns cuando el robot no se ha dado cuenta de algo... por lo que un modelo estadístico de calidad valdría su peso en oro incluso antes que el ML... para intentar aumentar la probabilidad del 50/50... imho

StandardScaler with make_pipeline
StandardScaler with make_pipeline
  • 2018.04.21
  • april
  • stackoverflow.com
If I use , do I still need to use and functions to fit my model and transform or it will perform these functions itself? Also, does also perform the normalization or only the scaling...
 
JeeyCi #:

O considerar la CDF y descartar las persentiles extremas... imho para encontrar el medio... o explotarlos

probabilidad de las colas de la PDF(que de hecho se deriva de la CDF, es decir, la PDF es una PDF diferencial): 1-P(a<=X<=b) , donde [-infinito,a] y [b,+infinito] son las colas de la distribución

Razón de la queja: