Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2623
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
y la respuesta no era para ti, sigues sin saber leer...
Ni siquiera necesitas un segundo modelo aquí, ¿verdad? - Validación cruzada y búsqueda en cuadrícula para la selección de modelos ...
pero quizás sólo la matriz de confusión responda a tu segunda pregunta (el propósito del segundo modelo de tu idea)...
.. . o
... Sólo dudo que necesites el segundo modelo... imho
Aquí es sólo la mejora en la matriz de confusión se afirma con el segundo modelo, si usted lee el Prado, por ejemplo. Pero también utiliza ejemplos de sobremuestreo para el primer modelo para aumentar el número de verdaderos positivos o algo más. Ya lo he olvidado, por desgracia.
El muestreo ascendente y el muestreo descendente son para conjuntos de datos desequilibrados y conjuntos de entrenamiento pequeños, si es eso lo que quiere decir, es decir, dar mayor peso a las clases más pequeñas y viceversa... Sí, probablemente para aumentarlos (tru positivos)...
***
y sobre 2 modelos - bien, es probablemente posible filtrar 2 veces - primero señales para fijar pesos, entonces comercia en ellos según estos pesos (lanzados por la entrada en la 2da ponderación)... aunque parece que es posible aprender en tratos con el contexto - y mantener el gradiente para series de tiempo anteriores - buena idea... PERO la implementación cuando se trabaja con el contexto sigue siendo un poco diferente por lo general - la tarea es utilizar la codificación de "transacción y su contexto" y la 2ª RNN toma en el procesamiento el resultado de la 1ª para la decodificación en la salida - pero tiene poco que ver con el trabajo de 2 redes en 2 tareas diferentes (por ejemplo, el contexto y las transacciones), ya que de hecho se procesa-pasa a través de 2 redes "transacción y contexto" (como un par!!!)... - sólo resuelve el problema de la velocidad , pero no (o en menor medida) la validez de la salida... imho...
pero si realmente quieres separar el contexto y el procesamiento de las transacciones (el contexto por separado, las transacciones por separado) -- hasta ahora tal construcción me recuerda a un sándwich (o aceite y mantequilla, lubricando las interrelaciones y dependencias de los fenómenos entre sí - en 2 capas)... No pretendo interpretar su TechSuite, pero he expresado mis inquietudes y mi sugerencia de que todavía puede valer la pena conservar en el proceso de modelado - ¡las relaciones! ¡Le deseo una hermosa (¡reflejo de la realidad! no de la manteca) Arquitectura de la Red!
p.d. ) como eterno problema de la "publicidad contextual" - "lo principal es no romper con la realidad" (sólo que su configuración de balanzas es a veces torcida - no señalaré a quién - o con pequeñas muestras trabajadas en la dirección equivocada)
El up-sampling y el down-sampling son para conjuntos de datos desequilibrados y conjuntos de entrenamiento pequeños, si es eso lo que quiere decir, es decir, dar más peso a las clases más pequeñas... Sí, probablemente para aumentarlos (tru positivos)...
***
y sobre 2 modelos - bien, es probablemente posible filtrar 2 veces - primero las señales para fijar pesos, entonces los comercios en ellos según esos pesos (lanzados por la entrada en el 2do pesaje)... aunque parece la posibilidad de aprender los comercios con el contexto - y de guardar el gradiente para las series de tiempo anteriores - buena idea... PERO la implementación cuando se trabaja con el contexto sigue siendo un poco diferente por lo general - la tarea es utilizar la codificación de "transacción y su contexto" y la 2ª RNN toma en el procesamiento el resultado de la 1ª para la decodificación en la salida - pero tiene poco que ver con el trabajo de 2 redes en 2 tareas diferentes (por ejemplo, el contexto y las transacciones), ya que de hecho se procesa-pasa a través de 2 redes "transacción y contexto" (como un par!!!)... - sólo resuelve el problema de la velocidad , pero no (o en menor medida) la validez de la salida... imho...
pero si realmente quieres separar el procesamiento del contexto y la transacción (contexto por separado, transacciones por separado) -- hasta ahora tal construcción me recuerda a un sándwich (o aceite y mantequilla, lubricando las interrelaciones y dependencias de los fenómenos entre sí - en 2 capas)... No pretendo interpretar su TechSuite, pero he expresado mis preocupaciones y mi sugerencia de que todavía puede valer la pena preservar en el proceso de modelado - ¡las relaciones! ¡Le deseo una hermosa (¡reflejo de la realidad! no de la manteca) Arquitectura de la Red!
p.d. ) como eterno problema de la "publicidad contextual" - "lo principal es no romper con la realidad" (sólo que su configuración de escalas es a veces torcida - no voy a señalar a quién - o con pequeñas muestras trabajadas en la dirección equivocada)
El concepto de regularidad implica repetibilidad, ¡eso es importante!
las estadísticas son lineales, se mire como se mire... las redes neuronales son tontas (o inteligentes - depende del desarrollador) la ponderación... el uso de 2 o más capas de ns densas para la ponderación da dependencias no lineales (convencionalmente hablando, porque la dependencia es O la correlación tonta es todavía una cuestión muy grande)... pero mientras funcione incluso una correlación tonta, puedes intentar ganar dinero con ella... - hay que detectar a tiempo el momento en que deja de funcionar (hay que notar algún tipo de anomalía -aleatoria o sistemática- esa es otra cuestión- y luego, como siempre, decidir sobre su cuestión de riesgo/rentabilidad)
la conveniencia de ns está en su flexibilidad - puedes conseguir/suministrar una "nomenclatura" bastante diferente a la que quieres. Es flexible - se puede obtener/suministrar una "nomenclatura" bastante diferente de la entrada - es decir, se pueden hacer las transformaciones que necesitamos en la propia red... y hacerlo en modo multihilo (depende de la biblioteca)... no sólo estadísticas...
Si se necesitan o no estadísticas para encontrar una entrada es otra cuestión...
El conocimiento y la experiencia ayudan más a menudo que el tratamiento estadístico, porque el primero se centra en lo específico, el segundo en la reducción a un denominador común...
Todo tiene su lugar, las estadísticas también...
***
la cuestión es que para un robot - no hay otra manera de explicar (y no le explicará de otra manera), excepto a través de las probabilidades derivadas de los números... - Así es como funcionó la ECONOMÍA durante siglos - con los números 0 y 1... así que tenemos que digitalizar las entradas para obtener las probabilidades de salida y establecer las condiciones de los intervalos de confianza (que confiamos, no necesariamente la estadística)... y podemos confiar en cualquier cosa (es subjetivo) - ya sea la lógica binaria o también el resultado ponderado de esta lógica binaria (aka % de probabilidades de toda la gama de soluciones potenciales)... -- es sólo una cuestión de gustos y costumbres, no un tema para una discusión sobre la búsqueda del Grial...
(y entrar en un bosque o en una red neuronal ya es un detalle)
nadie ha prohibido el uso conjunto de árboles/bosques y redes neuronales dentro del mismo proyecto... - la cuestión es dónde aplicar qué y cuándo (la velocidad y la memoria son importantes), no cuál es mejor... - mejor no perder el tiempo - equivale a "el tiempo separado de una transacción es tiempo perdido, al igual que una transacción separada del tiempo es una transacción desconocida"
Ningún modelo puede obtener más que probabilidades (lo cual es una ventaja y una desventaja de cualquier digitalización), aunque estas probabilidades no estén ponderadas... No me enveneno con los bocadillos y no aconsejo a nadie - nadie ha anulado a Bayes (aunque no lo pongas en el código, y sobre todo - si lo pones en el código)...
p.d. Y tú debes ser un fan de McDonalds... - Hipótesis, no voy a probarla...
El algoritmo es más caro que sus conclusiones
Ningún modelo puede obtener más que probabilidades (lo cual es una ventaja y una desventaja de cualquier digitalización), aunque estas probabilidades no estén ponderadas... No me enveneno con los bocadillos y no aconsejo a nadie - nadie ha anulado a Bayes (aunque no lo pongas en el código, y sobre todo - si lo pones en el código)...
p.d. Y tú debes ser un fan de McDonalds... - Hipótesis, no voy a probarla...
La algoritmia es más querida que sus conclusiones.