Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2623

 
JeeyCi #:

y la respuesta no era para ti, sigues sin saber leer...

Si recomiendas un artículo que contiene tonterías, lo engulles (lo que demuestra tu competencia), recomiendas a otros que lo engullan también...

Pregunta: si esa respuesta no iba dirigida a mí, ¿ya no es delirante? La pregunta no es retórica.
[Eliminado]  
JeeyCi #:

Ni siquiera necesitas un segundo modelo aquí, ¿verdad? - Validación cruzada y búsqueda en cuadrícula para la selección de modelos ...

pero quizás sólo la matriz de confusión responda a tu segunda pregunta (el propósito del segundo modelo de tu idea)...

.. . o

... Sólo dudo que necesites el segundo modelo... imho

Esa es exactamente la mejora en la matriz de confusión que se reclama cuando se utiliza el segundo modelo, si se lee Prado, por ejemplo. Pero también utiliza el sobremuestreo de ejemplos para el primer modelo con el fin de aumentar el número de "verdaderos positivos" o algo más. Ya lo he olvidado, por desgracia.
Con un modelo se puede mejorar una cosa a costa de otra, y con 2 modelos se puede mejorar todo, supuestamente. Busque una Matriz de Confusión Prado o Meta Leibeling Prado. Estoy en mi teléfono.
Y la valoración cruzada se mostrará "buena" después de tales manipulaciones, basta con mirar los nuevos datos de balance de renta variable de TC y ver todo de una vez )
 
Maxim Dmitrievsky #:
Aquí es sólo la mejora en la matriz de confusión se afirma con el segundo modelo, si usted lee el Prado, por ejemplo. Pero también utiliza ejemplos de sobremuestreo para el primer modelo para aumentar el número de verdaderos positivos o algo más. Ya lo he olvidado, por desgracia.
Con un modelo se puede mejorar una cosa a costa de otra, y con 2 modelos se puede mejorar todo, supuestamente. Busca Confusion Matrix Prado o Meta Leibeling Prado. Estoy en mi teléfono.

El muestreo ascendente y el muestreo descendente son para conjuntos de datos desequilibrados y conjuntos de entrenamiento pequeños, si es eso lo que quiere decir, es decir, dar mayor peso a las clases más pequeñas y viceversa... Sí, probablemente para aumentarlos (tru positivos)...

***

y sobre 2 modelos - bien, es probablemente posible filtrar 2 veces - primero señales para fijar pesos, entonces comercia en ellos según estos pesos (lanzados por la entrada en la 2da ponderación)... aunque parece que es posible aprender en tratos con el contexto - y mantener el gradiente para series de tiempo anteriores - buena idea... PERO la implementación cuando se trabaja con el contexto sigue siendo un poco diferente por lo general - la tarea es utilizar la codificación de "transacción y su contexto" y la 2ª RNN toma en el procesamiento el resultado de la 1ª para la decodificación en la salida - pero tiene poco que ver con el trabajo de 2 redes en 2 tareas diferentes (por ejemplo, el contexto y las transacciones), ya que de hecho se procesa-pasa a través de 2 redes "transacción y contexto" (como un par!!!)... - sólo resuelve el problema de la velocidad , pero no (o en menor medida) la validez de la salida... imho...

pero si realmente quieres separar el contexto y el procesamiento de las transacciones (el contexto por separado, las transacciones por separado) -- hasta ahora tal construcción me recuerda a un sándwich (o aceite y mantequilla, lubricando las interrelaciones y dependencias de los fenómenos entre sí - en 2 capas)... No pretendo interpretar su TechSuite, pero he expresado mis inquietudes y mi sugerencia de que todavía puede valer la pena conservar en el proceso de modelado - ¡las relaciones! ¡Le deseo una hermosa (¡reflejo de la realidad! no de la manteca) Arquitectura de la Red!

p.d. ) como eterno problema de la "publicidad contextual" - "lo principal es no romper con la realidad" (sólo que su configuración de balanzas es a veces torcida - no señalaré a quién - o con pequeñas muestras trabajadas en la dirección equivocada)

[Eliminado]  
JeeyCi #:

El up-sampling y el down-sampling son para conjuntos de datos desequilibrados y conjuntos de entrenamiento pequeños, si es eso lo que quiere decir, es decir, dar más peso a las clases más pequeñas... Sí, probablemente para aumentarlos (tru positivos)...

***

y sobre 2 modelos - bien, es probablemente posible filtrar 2 veces - primero las señales para fijar pesos, entonces los comercios en ellos según esos pesos (lanzados por la entrada en el 2do pesaje)... aunque parece la posibilidad de aprender los comercios con el contexto - y de guardar el gradiente para las series de tiempo anteriores - buena idea... PERO la implementación cuando se trabaja con el contexto sigue siendo un poco diferente por lo general - la tarea es utilizar la codificación de "transacción y su contexto" y la 2ª RNN toma en el procesamiento el resultado de la 1ª para la decodificación en la salida - pero tiene poco que ver con el trabajo de 2 redes en 2 tareas diferentes (por ejemplo, el contexto y las transacciones), ya que de hecho se procesa-pasa a través de 2 redes "transacción y contexto" (como un par!!!)... - sólo resuelve el problema de la velocidad , pero no (o en menor medida) la validez de la salida... imho...

pero si realmente quieres separar el procesamiento del contexto y la transacción (contexto por separado, transacciones por separado) -- hasta ahora tal construcción me recuerda a un sándwich (o aceite y mantequilla, lubricando las interrelaciones y dependencias de los fenómenos entre sí - en 2 capas)... No pretendo interpretar su TechSuite, pero he expresado mis preocupaciones y mi sugerencia de que todavía puede valer la pena preservar en el proceso de modelado - ¡las relaciones! ¡Le deseo una hermosa (¡reflejo de la realidad! no de la manteca) Arquitectura de la Red!

p.d. ) como eterno problema de la "publicidad contextual" - "lo principal es no romper con la realidad" (sólo que su configuración de escalas es a veces torcida - no voy a señalar a quién - o con pequeñas muestras trabajadas en la dirección equivocada)

El concepto de contexto quizá no sea muy útil en el caso de las series temporales. No hay una división clara, ambos modelos participan en la predicción. Una es la dirección, la otra es el momento. Yo diría que son equivalentes. La cuestión es cómo podemos optimizar la búsqueda de las mejores situaciones de negociación basándonos en el análisis de los errores del modelo, y si es posible. Puedo volver a entrenar a uno u otro secuencialmente. Después de cada par de reentrenamiento, el resultado debe mejorar con los nuevos datos. Significa que debe ser capaz de extraer un patrón de una muestra de entrenamiento y mejorar gradualmente los nuevos datos que no ha visto. Una tarea no trivial.

He hecho que los ejemplos mal predichos por el primer modelo pasen a la clase de "no comerciar" del segundo modelo. Tiró la muestra de aro para el primer modelo. En consecuencia, el error del primero se redujo casi a cero. El segundo también tiene uno pequeño. Pero eso no significa que sea bueno en los nuevos datos.

Es una especie de problema combinatorio: encontrar la compra y la venta adecuadas en el momento oportuno.

Tal vez sea imposible encontrar la solución aquí
 
Maxim Dmitrievsky #:
El concepto de regularidad implica repetibilidad, ¡eso es importante!

Si una agrupación puede predecir algo con un 90% de probabilidad y se repite al menos 200 veces, podemos asumir que se trata de un patrón.
O no es un racimo, es un tronco.

Cuando se trata de un modelo complejo (complejo por la palabra "complejo") se pierde la capacidad de fijar la repetibilidad de los patrones internos, es decir, se pierde la capacidad de distinguir los patrones de ajuste...

Entendiendo esto, se puede comprender inmediatamente que las redes neuronales van a la basura, pero los modelos de madera se pueden descomponer en reglas, y en las reglas ya se pueden contar estadísticas
[Eliminado]  
mytarmailS #:
El concepto de regularidad implica repetibilidad, ¡eso es importante!

Si una agrupación puede predecir algo con un 90% de probabilidad y se repite al menos 200 veces, podemos asumir que se trata de un patrón.
O no es un racimo, es un tronco.

Cuando se trata de un modelo complejo (complejo por la palabra "complejo") se pierde la capacidad de detectar la repetibilidad de los patrones internos, es decir, se pierde la capacidad de distinguir los patrones del ajuste...

Entendiendo esto, te puedes dar cuenta inmediatamente de que las redes neuronales van a la basura, pero los modelos de madera se pueden descomponer en reglas, y las reglas ya pueden contar estadísticas
Pero se pueden meter muchas funciones en ns si no hay dependencias simples, aunque sin posibilidad de análisis. De lo contrario, desecharemos todo el aprendizaje automático y volveremos a las formas simples de escribir TS :) Entonces podemos escribir algoritmos sencillos, ver cómo (no) funcionan en el probador, ajustar, volver a ver, etc.
 

las estadísticas son lineales, se mire como se mire... las redes neuronales son tontas (o inteligentes - depende del desarrollador) la ponderación... el uso de 2 o más capas de ns densas para la ponderación da dependencias no lineales (convencionalmente hablando, porque la dependencia es O la correlación tonta es todavía una cuestión muy grande)... pero mientras funcione incluso una correlación tonta, puedes intentar ganar dinero con ella... - hay que detectar a tiempo el momento en que deja de funcionar (hay que notar algún tipo de anomalía -aleatoria o sistemática- esa es otra cuestión- y luego, como siempre, decidir sobre su cuestión de riesgo/rentabilidad)

la conveniencia de ns está en su flexibilidad - puedes conseguir/suministrar una "nomenclatura" bastante diferente a la que quieres. Es flexible - se puede obtener/suministrar una "nomenclatura" bastante diferente de la entrada - es decir, se pueden hacer las transformaciones que necesitamos en la propia red... y hacerlo en modo multihilo (depende de la biblioteca)... no sólo estadísticas...

Si se necesitan o no estadísticas para encontrar una entrada es otra cuestión...

El conocimiento y la experiencia ayudan más a menudo que el tratamiento estadístico, porque el primero se centra en lo específico, el segundo en la reducción a un denominador común...

Todo tiene su lugar, las estadísticas también...

***

la cuestión es que para un robot - no hay otra manera de explicar (y no le explicará de otra manera), excepto a través de las probabilidades derivadas de los números... - Así es como funcionó la ECONOMÍA durante siglos - con los números 0 y 1... así que tenemos que digitalizar las entradas para obtener las probabilidades de salida y establecer las condiciones de los intervalos de confianza (que confiamos, no necesariamente la estadística)... y podemos confiar en cualquier cosa (es subjetivo) - ya sea la lógica binaria o también el resultado ponderado de esta lógica binaria (aka % de probabilidades de toda la gama de soluciones potenciales)... -- es sólo una cuestión de gustos y costumbres, no un tema para una discusión sobre la búsqueda del Grial...

(y entrar en un bosque o en una red neuronal ya es un detalle)

nadie ha prohibido el uso conjunto de árboles/bosques y redes neuronales dentro del mismo proyecto... - la cuestión es dónde aplicar qué y cuándo (la velocidad y la memoria son importantes), no cuál es mejor... - mejor no perder el tiempo - equivale a "el tiempo separado de una transacción es tiempo perdido, al igual que una transacción separada del tiempo es una transacción desconocida"

[Eliminado]  
Un despotrique tan largo y una conclusión tan débil :) Incluso si nos abstraemos del tiempo, un modelo (regularizado, no ajustado) no puede enseñar una buena proporción de operaciones rentables y no rentables, o la exclusión de las no rentables. No se puede eliminar el error de clasificación, que se percibe como un deterioro artificial de los resultados de las operaciones de TS, incluso en una muestra de seguimiento.
 

Ningún modelo puede obtener más que probabilidades (lo cual es una ventaja y una desventaja de cualquier digitalización), aunque estas probabilidades no estén ponderadas... No me enveneno con los bocadillos y no aconsejo a nadie - nadie ha anulado a Bayes (aunque no lo pongas en el código, y sobre todo - si lo pones en el código)...

p.d. Y tú debes ser un fan de McDonalds... - Hipótesis, no voy a probarla...

El algoritmo es más caro que sus conclusiones

[Eliminado]  
JeeyCi #:

Ningún modelo puede obtener más que probabilidades (lo cual es una ventaja y una desventaja de cualquier digitalización), aunque estas probabilidades no estén ponderadas... No me enveneno con los bocadillos y no aconsejo a nadie - nadie ha anulado a Bayes (aunque no lo pongas en el código, y sobre todo - si lo pones en el código)...

p.d. Y tú debes ser un fan de McDonalds... - Hipótesis, no voy a probarla...

La algoritmia es más querida que sus conclusiones.

Los bocadillos son muy utilizados, cualquier red profunda. Hay diferentes trucos para diferentes tareas. Pero si se piensa de forma restringida, cualquier copiadora es una fotocopiadora y cualquier hamburguesa un McDonald's
Puedes convertirte en un rehén de tus propios estereotipos sin intentar nada. Y los estereotipos no vienen por capas 😀 .
En mi respuesta, implícitamente, utilicé un segundo modelo clarificador que destacaba del conocimiento generalizado el específico, más adecuado a la situación