Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2475

 
Evgeniy Ilin # :

Para conseguirlo en una red neuronal, el tipo de neuronas debe ser lo más diferente posible, y el número de capas y su composición también deben ser arbitrarios, entonces es posible.

sí, para aproximar parámetros independientes entre sí en un intento de reducirlos a 1 salida - se necesita realmente ponderar estadísticamente datos históricos profundos hasta el momento actual - es decir, tener una muestra representativa (cuanto más grande - más probable es que se acierte en el objetivo)... para procesarlos (ponderarlos) en una caja negra... pero todo esto es estadística, y puede estar muy lejos incluso de la fase económica actual... -sólose obtiene una media con una gran varianza (y un coeficiente de variación también)

parece que hemos pasado por un ciclo económico completo durante 30 años - es mejor aprender las señales para el momento actual de una fase similar de desarrollo económico (así lo supongo) - para reducir la muestra de datos de partida ()... pero personalmente no dispongo de esos datos (necesarios para creer en la validez de un análisis significativo en un periodo tan largo) ....

Evgeniy Ilin # :

Todo el mundo utiliza mayoritariamente una red neuronal de arquitectura fija, pero por alguna razón no entienden que la arquitectura también debe ser flexible, al destruir esta flexibilidad destruimos la posibilidad misma de minimizar el reentrenamiento. En general, el mismo criterio se puede aplicar, por supuesto, a los modelos simples, incluso es necesario, entonces usted va a obtener un buen avance, mi modelo da un par de meses de beneficio por delante y los ajustes pueden ser actualizados en un día. Uno de los trucos básicos es tomar la mayor cantidad de datos posibles(10 años de historia o más), en este caso buscamos patrones globales, y se basan en la física del propio mercado y en la mayoría de los casos funcionan durante mucho tiempo.

no es un truco, es un intento de alejarse de la realidad... imho

(es posible conseguir un forward normal - con menos coste - lógico - para conseguir un forward normal - sin analizar los huskies y tonterías para el momento actual - aunque todo se aprende sólo por comparación, y en la caja negra también, pero aún así primero se usaría el cerebro, y luego incluso el aprendizaje automático no tan profundo, pero sólo referente a parte del momento actual por señales importantes en la situación actual del mercado) - y entonces faltan todos los datos necesarios de la historia...

Aun así, una comprensión del ecosistema y una base de conocimientos sobre el intercambio de materia y energía en él, combinada con una conciencia oportuna de las noticias/eventos que lo impulsan, es una forma de averiguar la evolución sin cargar tanto poder de PC sólo por la media y la varianza... imho

Pero gracias por tus observaciones... pero para mí la necesidad de un aprendizaje tan profundo es discutible (aunque supongo que para la caja negra es indiscutible)

 
mytarmailS #:


Mi visión por supuesto no es un referente, hablo sobre todo desde el punto de vista del ahorro de tiempo, simplemente porque he hablado con mucha gente y creo que no es ningún secreto que leeremos este foro dentro de 5 años y probablemente nos reiremos de nosotros mismos, simplemente creo que todos los desarrollos no son vacíos y hay que intentar escalar lo que se ha recibido. Muchas veces he querido fastidiarlo todo, pero por alguna razón no lo he hecho a pesar de que no da dinero. Me parece que esta experiencia es valiosa, y cada uno tiene su propio valor, pero lo único que podemos hacer es seguir adelante o ir a una taberna a emborracharnos. Me parece que sólo tenemos que escalar e intensificar lo que tenemos al principio, y me parece que es probablemente muy simple. Cuanto más complico las cosas y más quiero poner algunas matemáticas raras, menos predecible es todo. Para ser honesto, creo que todos los que han pasado años en esto entienden que no van a conseguir el 100% al mes, y los que no han pasado ese tiempo mirarán tus 100 al año y comprarán una señal con 100 al mes incluso sin prestar atención al hecho de que se cuelga durante 2 meses.

 
JeeyCi #:

sí, para aproximar parámetros independientes entre sí en un intento de llevarlos a 1 salida - se necesita realmente sopesar estadísticamente datos históricos profundos hasta el momento actual - es decir, tener una muestra representativa (cuanto más grande - más probable es que se dé con el objetivo)... para procesarlos (sopesar) en una caja negra... pero todo esto es estadística, y puede estar muy lejos incluso de la fase económica actual... -sólose obtiene una media con una gran varianza (y un coeficiente de variación también)

parece que hemos pasado por un ciclo económico completo durante 30 años - es mejor aprender las señales para el momento actual desde una fase similar de desarrollo económico (así lo supongo) - para reducir la muestra de datos de partida ()... pero personalmente no dispongo de esos datos (necesarios para creer en la validez de un análisis significativo durante un periodo tan largo)....

no es un engaño, es un intento de alejarse de la realidad... imho

(es posible conseguir un avance normal - con menos coste - lógico - sin analizar la cáscara y la falta de importancia para el momento actual - aunque todo se conoce sólo por comparación, y en la caja negra también, pero aún así encendería mi cerebro primero, y luego incluso no tan profundo aprendizaje de la máquina, pero sólo en relación con la parte del momento actual por los signos importantes en la situación actual del mercado) - y luego todos los datos necesarios de la historia están desaparecidos ...

Aun así, una comprensión del ecosistema y una base de conocimientos sobre el intercambio de materia y energía en él, combinada con una conciencia oportuna de las noticias/eventos que lo impulsan, es una forma de averiguar la evolución sin cargar tanto poder de PC sólo por la media y la varianza... imho

Pero gracias por tus observaciones... Pero para mí la necesidad de un aprendizaje tan profundo es discutible (aunque supongo que para una caja negra es innegable))

La varianza y otras desviaciones son el resultado natural de analizar un sistema basado en probabilidades pero no en ecuaciones diferenciales, todo lo que puedes obtener es un sistema de ecuaciones diferenciales, cuyas variables son las "probabilidades de ciertos eventos" de atención, aquellos eventos que te parecen importantes, y todo lo que puedes predecir es la probabilidad pero no el valor exacto. Una vez que entiendas eso, las cosas serán más fáciles y no tendrás miedo a la varianza ni a otras cosas. Siempre tendrás la desviación, tu tarea es sólo minimizarla. No se puede predecir el comportamiento a largo plazo del sistema con una precisión del 100%, pero se pueden alcanzar ciertas cifras, que son suficientes para un comercio rentable. Quiero decir que no hagas el trabajo de la máquina, dale un poco de libertad y verás que ella sabe mejor que tú qué datos necesita. Por cierto sobre la caja negra, cuanto más negra es la caja más inteligente es. La IA se basa exactamente en ese principio.

 
Evgeniy Ilin #:

. Lo que quiero decir es que no hagas el trabajo de la máquina por ella, dale libertad y verás que ella sabe mucho mejor que tú qué datos necesita. Hablando de la caja negra, cuanto más negra es la caja, más inteligente es. La IA se basa en ese principio.

- Bueno, ya veo, cuantos más datos de entrada (y características a seleccionar), más precisa es la estimación aproximada e incluso la predicción basada en ella (aunque todavía con una probabilidad de error)...

Después de sus mensajes, el área de responsabilidad del desarrollador se aclara un poco más,

Evgeniy Ilin #:

La varianza y otras desviaciones son el resultado natural de analizar un sistema basado en probabilidades pero no en ecuaciones diferenciales, todo lo que puedes obtener es un sistema de ecuaciones diferenciales donde las variables son atención "probabilidades de ciertos eventos", aquellos eventos que te parecen importantes, y todo lo que puedes predecir es la probabilidad pero no el valor exacto.

Algoritmo para hallar las derivadas utilizando la fórmula de diferencia de Newtons

Evgeniy Ilin # :

. Siempre habrá desviaciones, tu tarea es simplemente minimizarlas.

sí, había una imagen en algún lugar en el enlace que dejé antes ~ convergencia de la predicción y el error a la parte inferior de la parábola (esto es para evitar el sobreentrenamiento y detener en el tiempo) - La evolución va en una espiral a este punto (así que supongo que con la disminución de la aceleración, hasta que se detenga por completo - hasta que la varianza de mayor a menor, como la caída de un embudo)

p.d.

He codificado una vez usando Calcular Volatilidad Implícita con VBA- Volatilidad Implícita con Iteración Newton-Raphson - no pude encontrar ninguna señal... Y es comprensible (ya que los agujeros negros no funcionan en absoluto en la moneda, ya que allí no está todo tan binominalmente distribuido como uno quisiera soñar)

... Para ser honesto, no estoy familiarizado con Newton en absoluto - si él inventó tantas cosas diferentes (?), o si esto (su delantero y mi Volatilidad Implícita) es de la misma línea y en la misma perspectiva y la esencia del mismo cálculo ... ... No quiero perder mi tiempo en algo en lo que no creo - no creo en la modelización financiera

Algorithm To Find Derivatives Using Newtons Forward Difference Formula
  • www.codesansar.com
Following steps are required inorder to find derivatives using forward difference formula:
 

pero aún queda la cuestión de elegir una función de destino... - también es responsabilidad del desarrollador... - ¿qué aconseja?

(aunque sí, usaste la diferencia hacia adelante)

p.d.

sobre los grados de libertad - Voy a mirar de nuevo

 

creer en la demanda - la oferta... en el modelo de tela de araña (centrado en la elasticidad y en elwalrasiano) - en el equilibrio-disbalance - para determinar la dirección... (para la probabilidad de salir de un piso a una tendencia) - sólo OI y la gestión del tiempo (incluyendo que uno no siempre puede ser guiado por Walras)...

para el hecho - el vidrio (parsing niveles o oops - iceberg popping) - aunque, por supuesto, es mejor no parse, pero pasar con calma, cuando alguien ya ha analizado el nivel y NO-opuesto existe (mejor con la prueba después de la ruptura - también visible en el vidrio, y en la cinta)

 
JeeyCi #:

sobre Walras

Me encantó la del pueblo del queso y el centro de vinoterapia.

 
JeeyCi #:


Sólo puedo hablarte de Newton. Tengo entendido que hay previsión de futuro en base a la curva existente en el pasado, yo lo hice hace tiempo, no funciona con el precio en absoluto, de palabra, si es a lo que te refieres. Pero funciona si se trata de predecir el gráfico de backtest hacia adelante, pero hay algunos matices como este:

Esto es puramente mi experiencia. Cualquier método de predicción de algo se basa en la interpolación de la función con algún polinomio seguido de la construcción de la continuación, no sé cómo lo hace Newton, pero lo más probable es que se calculen las derivadas como orden profundo y luego se tome como constante para esta función, aunque por supuesto todo cambia con el tiempo (en el mercado tales predicciones no funcionan en absoluto, lo he comprobado). Si pronosticamos un backtest hacia adelante, debe ser lo más recto posible y tener el mayor número de puntos (datos u operaciones en este caso, luego podemos mirar un poco hacia adelante). En otras palabras, si hemos encontrado una muestra con un rango de fluctuación suficientemente estrecho de tantas primeras derivadas como sea posible, tales métodos de extrapolación funcionarán parcialmente, lo principal es no ser codicioso y detenerse a tiempo. A continuación sólo muestro cómo tratar la incertidumbre por medio de la lotería (si no sabemos exactamente dónde perderá su poder el pronóstico). Puedo interpolar transformadas de Fourier y dibujar secuencias en el futuro, pero no funciona con funciones arbitrarias. Y sobre el embudo de aprendizaje, bueno, se puede controlar el reaprendizaje de diferentes maneras, nunca he tomado las fórmulas de otra persona, sólo porque puedo improvisar las mías en poco tiempo si es necesario, y lo más probable es que sean más fáciles y útiles, sólo porque entiendo todo, así que siempre he sido, nunca he tenido ninguna dificultad en ello.

 
Evgeniy Ilin #:

Sólo puedo hablarte de Newton. Tengo entendido que existe la predicción a futuro basada en una curva en el pasado, yo lo hice hace mucho tiempo, no funciona con el precio en absoluto, desde la palabra, si es a lo que te refieres.

Esto es puramente mi experiencia. Cualquier método de predicción de algo se basa en la interpolación de la función con algún polinomio seguido de la construcción de la continuación, no sé cómo lo hace Newton, pero... (en el mercado tales predicciones no funcionan en absoluto, probado).

esta conclusión me resultó interesante - ¡gracias! -

Evgeniy Ilin #:
Lo del embudo de formación, se puede controlar la reeducación de diferentes maneras, nunca he utilizado las fórmulas de otros, simplemente porque puedo hacer las mías propias en poco tiempo si tengo que hacerlo, y probablemente serán más fáciles y útiles, simplemente porque lo entiendo todo, nunca he tenido ningún problema con ello.

+1, pero no soy un experto en física... Aunque estoy más cerca de mi propia lógica que de usar los modelos de otras personas

Evgeniy Ilin# :

Si quieres pronosticar un backtest hacia adelante, tienes que hacer el gráfico lo más recto posible y tener el mayor número de puntos en él (datos u operaciones en este caso, luego puedes mirar un poco hacia adelante). En otras palabras, si hemos encontrado una muestra con rangos de fluctuación suficientemente estrechos de tantas primeras derivadas como sea posible, tales métodos de extrapolación funcionarán parcialmente,

en general, tener una parábola normal de la que la 1ª derivada es lineal... terminamos con sólo el coeficiente de su pendiente (como una tendencia despejada de ruido) - con todas las cosas concomitantes que usted describió (rango estrecho de un gran número de primeras derivadas)... ¿sólo hay que pesarlo hasta la saciedad? (varias capas hasta que la salida sea una parábola)... o más bien una derivada 1x recta de la misma

Evgeniy Ilin #:
Los métodos en sí son de importancia secundaria aquí, es posible interpolar Fourier y dibujar una continuación hacia el futuro, pero no funcionará con funciones arbitrarias.

eso es lo que me intriga de las redes neuronales, no derivar una distribución y compararla con las tabulares/empíricas, y no buscar la confirmación de cada estornudo estadísticamente (hasta "¿he acertado la media?") comparando la hipótesis nula con la tabular... - eso es una especie de procesamiento estadístico del siglo pasado... en general, no demostrar la validez tanto del modelo como de la predicción y los errores y todo ello con tablas en la mano del siglo pasado (perdón por la expresión)

o, en su defecto, sólo ponderación multicapa (lo tomo como una red neuronal)... como he dicho: ¿hasta que no se le pase por la cabeza? (varias capas hasta obtener una parábola en la salida)... o más bien una derivada 1x directa de la misma?

??? o en general olvidarse de todo tipo de funciones (incluyendo la parábola) y sólo buscar peso*señal(evento) -> siguiente nivel... y en cada nivel, la función debe ser elegida más o menos trivialmente, como en el Buscador de Soluciones de Excel (ya sea para la dependencia lineal, o para la dependencia no lineal, o para los datos independientes) [aunque no sé lo que Excel tiene bajo el capó por estos nombres, pero esto es detalles, el énfasis en la lógica].

y en el punto de convergencia de las señales en el siguiente nivel (teniendo en cuenta los pesos anteriores) calcular todas las diferencias de las señales recibidas...

? entiendo correctamente la red neuronal y la diferenciación por las fuerzas de la máquina del caos sin necesidad de adherirse a ninguna curva / línea recta - que, como yo lo veo, sólo puede ser un resultado de la estructuración del caos, pero no un punto de partida... no creo y no veo ninguna razón para poner modelos financieros de libros/blogs/artículos (y distribuciones procesadas estadísticamente) en el análisis financiero cuando se aproxima/interpola el caos... para una mayor extrapolación

p.d.

en el fondo entiendo que sólo hay velocidad (coeficiente en x) y aceleración (coeficiente en x^2) y desplazamiento de término libre - en la parábola, y por supuesto la 1ª derivada de la misma es lineal... las fórmulas me dan miedo, sobre todo de los modelos de otras personas

 
Evgeniy Ilin #:

Aquí hay algo de verdad, pero he comprobado mi modelo, lo principal es saber con qué tipo de delantero contamos. El problema está en el reentrenamiento, para no reentrenar, hay que buscar la máxima relación entre los datos analizados y el conjunto final de criterios, es decir, hay compresión de datos, por ejemplo, podemos analizar los datos de una gráfica de parábola y tomar varios miles de puntos y reducir todo a tres coeficientes A*X^2 + B*X + C. Ahí es donde la calidad de la compresión de los datos es mayor, ahí es donde está el avance. El reentrenamiento se puede controlar introduciendo indicadores escalares correctos de su calidad teniendo en cuenta esta compresión de datos. En mi caso se hace de una manera más sencilla: tomamos un número fijo de coeficientes y hacemos el tamaño de la muestra lo más grande posible, es menos eficiente pero funciona.

Encontré su respuesta antes... Debo haberme precipitado en el post anterior... probablemente debería partir al menos de una parábola como función que describe el movimiento con velocidad y aceleración... (Incluso he visto este tipo de gráficos y griegas (delta y gamma) de las opciones en algún lugar - no lo recuerdo y no quiero encontrarlo - necesito un análisis temporal - horizontal, no vertical)

Razón de la queja: