Discusión sobre el artículo "Sistema secuencial de Tom DeMark (TD SEQUENTIAL) con uso de inteligencia artificial" - página 6

 
Mihail Marchukajtes:

Construí el modelo para 50 registros, me interesaba el resultado del modelo durante el siguiente intervalo de entrenamiento del 50 o 100%. Al aumentar el número de registros para construir el modelo sin aumentar el número de movimientos. La capacidad de generalización disminuirá. Así es posible reducir el nivel de generalización a un aceptable 65%, regulando la longitud de la muestra, si decimos que es suficiente para ganar dinero en el mercado, entonces el tamaño de la muestra de entrenamiento será mucho mayor y tal modelo funcionará mucho más tiempo, pero mucho peor que el modelo con el nivel de generalización del 90%. Aplicando una gestión adecuada de MM y dinero a tales modelos (65%), se puede ganar mucho dinero.

Ya lo he dicho, no se puede aprender de 50 muestras, datos muy ruidosos para el minuto anterior no contiene información sobre todos los matices del comportamiento del mercado, aprender a aprender de todo el conjunto.

No sé cómo se considera "generalización", pero el cálculo de la precisión todavía está en cuestión para usted. Los algoritmos son superiores, incluso un no-programador puede leerlo. Cuenta cuántas veces adivinó el modelo y divídelo por el número de muestras.

 
toxic:

Hay peces, pero no con esos datos, con datos de baja frecuencia el precio lo tiene todo en cuenta, con datos puros de mercado (precio volumen, delta, etc) no se consigue nada, el precio se adapta a las noticias y a la nueva información casi por completo, en pocos minutos, y la difusión de la información es la principal ineficiencia del mercado. El resto, simplificando, es información privilegiada. No se sabe cuándo y por qué la muñeca comprará/venderá mucho creando tendencias y cuándo dejará de hacerlo.

Imagina que estas peleando, tu éxito en una pelea depende de como predices los golpes del oponente, de su comienzo, viendo la postura y el comienzo del movimiento tomas maniobras evasivas apropiadas, y cuando ves la ineficiencia de la defensa del oponente atacas, todo es igual en el trading (especulación), no puedes decidir reaccionar dos veces más lento, no te volverás dos veces menos eficiente, perderás completamente la eficiencia.

Ahora toda la especulación es automatizada, todo lo que se basa en la difusión de información (estática, arbitraje de eventos, etc.) todo HFT, es necesariamente ultra HFT como en algunos MM, es más como "algo-scalping" (tiempo medio de mantener una posición alrededor de un minuto, o incluso 10 minutos), pero no estamos hablando de horas y días, no hay información en los precios, todo es antigüedad.

Pero en general, teóricamente, es posible predecir horas e incluso días, pero no sólo por los datos del mercado, es necesario controlar miles de parámetros de la actividad humana en todo el mundo, especialmente en relación con las grandes empresas, necesitamos el clima, la cantidad de transporte en todas partes, la actividad social de las personas en Internet, especialmente lanza tn. "Por ejemplo, he oído que están observando las fábricas desde el espacio para ver cuántos productos se producen allí, lo que se trajo, lo que se sacó)))) Esto es en la frontera con el interior, pero no atrapado no es un ladrón))))). Y todo esto tiene que ser procesado por un equipo de buenos analistas en una forma de signo, así como un equipo de pronosticadores fundamentales fresco y la recopilación de datos de las previsiones abiertas y su análisis. En general, ni siquiera un banco de tamaño medio dispondrá de recursos suficientes para realizarlo y elaborarlo todo con calidad de producción. Y sobre la base de sólo el precio con el volumen de días es imposible predecir estadísticamente fiable precio futuro, este es un cuento de hadas para "apostar al rojo y doble"))))


Todo cierto, estoy totalmente de acuerdo, pero el par de mercado forma requisitos previos, así como un ejemplo, tomemos la señal "Secuencias", supongamos que una señal de compra se formó y el NS dice que la señal es "Verdadero", pero después de algún tiempo hay un cambio en la situación del mercado y la señal pierde su relevancia y el mercado comienza a ir en contra de ella, al final se da por perdido como un error de la red. O mejor dicho, no fue un error. En el momento de la señal el mercado estaba realmente subiendo, y sólo entonces cambió de opinión. Entonces se comete un error y bien. La tarea es cometer el menor número posible de errores :-) Así que, al final, ¿qué tal si optimizo mis datos?
 
Mihail Marchukajtes:

Al final, ¿qué tal si optimizo mis datos?

150 muestras. Guau.

Vale, lo ejecutaré esta noche.

 
toxic:

Ya lo he dicho, no se puede aprender a partir de 50 muestras, los datos muy ruidosos del minuto anterior no contienen información sobre todos los matices del comportamiento del mercado, hay que aprender a aprender de todo el conjunto.

No sé cómo consideras la "generalización" pero calcular la precisión sigue siendo una incógnita para ti. Los algoritmos son superiores, incluso un no-programador puede leerlo. Contamos cuántas veces adivinó el modelo y lo dividimos por el número de muestras.


Por cierto sí, al principio cuando organizaba los códigos de los indicadores y todo, contaba en el historial qué señales y cuántas, porque tenemos 4 parámetros (y todo me salía bien). Pero se puede contar señales cuando el número de ceros y unos es igual, porque sino al dividir se copian algunas líneas. Es decir, si faltan dos unos, los suma (me refiero a Separador). Ahora voy a intentar conseguir el modelo y demostrar como funciona sobre la muestra de entrenamiento, pero para ello hay que tomar la misma cantidad de datos con cero y uno. Un poco más tarde, la máquina cuenta. En cuanto al archivo de entrenamiento, puedo convertirlo a 11 columnas y 750 filas. Tal archivo será más conveniente????
 
Mihail Marchukajtes:

Por cierto si, al principio cuando organizaba los códigos de los indicadores y todo eso, contaba en el historial que señales y cuantas, porque tenemos 4 parámetros (y todo me funcionaba). Pero se puede contar señales cuando el número de ceros y unos es igual, porque sino al dividir se copian algunas líneas. Es decir, si faltan dos unos, los suma (me refiero a Separador). Ahora voy a intentar conseguir el modelo y demostrar como funciona sobre la muestra de entrenamiento, pero para ello hay que tomar la misma cantidad de datos con cero y uno. Un poco más tarde, la máquina cuenta. En cuanto al archivo de entrenamiento, puedo convertirlo a 11 columnas y 750 filas. Dicho archivo será más conveniente????


11 columnas y 750 filas es sin duda mejor, tal vez en crossvalidation a algo va a venir juntos ...

En general, diseñar diferentes conjuntos, con fecha de baja frecuencia y sus chips y la orientación, puede en un mensaje privado si lo que no es para el público, confieso que no cavar profundamente de baja frecuencia, ya que estaba convencido de inmediato por "sofisticado" sobre el tema de la falta de información en el mismo, por lo que si me hace cambiar de opinión, se lo agradeceré, que a su vez mi comprensión de los mercados, estoy listo para ello, aunque considero que es poco probable.

 

Sí, en efecto, he preparado el archivo a la vez, son los mismos datos, pero recogidos de manera diferente.

Bueno, todavía tengo una teoría más, por así decirlo una suposición, quiero expresarla y escuchar la opinión no sólo de ti, tohis. (por cierto, ¿cómo te llamas? Porque no es habitual dirigirse por apodo) Sino también de Mago. El es viejo en esto y recuerdo que aun nos comunicabamos en NSh.

Archivos adjuntos:
 

Me gustaría tratar otro tema. La cuestión es que en el proceso de optimización obtenemos un modelo y después de varias optimizaciones obtendremos un conjunto de digamos 5 modelos (como ejemplo) La cuestión es cómo elegir el que funcionará mejor en el futuro. Ahora pondré un enlace a la conferencia, por favor véanla a partir del minuto 33, donde habla sobre el grado del polinomio y el efecto de reentrenar el polinomio. El gráfico de minimización de errores. Así que vamos a hablar de eso.

Es decir, la tarea del optimizador es construir un modelo tal que el grado de aproximación sea máximo en la dimensión polinómica mínima, si le he entendido bien. Es decir, la tarea es construir un polinomio tal que maximice el grado de aproximación a la salida pero que no tenga un gran número de grados. Y ahora imaginemos que nuestro optimizador sabe cómo construir tal polinomio y que, en caso de optimización repetida de los datos, entramos constantemente en una cierta zona que está en la frontera entre la convergencia y el sobreentrenamiento. Imaginemos que se trata de una zona pequeña, pero no importa cuántas veces lleguemos allí, siempre obtendremos modelos que entran en la zona de suficiencia y no de sobreentrenamiento (dibujado esquemáticamente como he podido) PERO estos modelos serán diferentes en cuanto a los resultados del trabajo en el futuro. Así que es la elección del modelo mismo que funcionará según la opinión del experto. Así que tal vez existan métodos de selección de modelos para que funcionen en el futuro?????.

La figura muestra el área donde la formación es completa y suficiente, lo principal es no sobreentrenarse.


001. Вводная лекция - К.В. Воронцов
001. Вводная лекция - К.В. Воронцов
  • 2014.12.22
  • www.youtube.com
Курс "Машинное обучение" является одним из основных курсов Школы, поэтому он является обязательным для всех студентов ШАД. Лектор: Константин Вячеславович Во...
 
Lo que es sorprendente es tal número de prsomotorov, y nadie para apoyar la conversación. AWOOOOO Gente.... ¿Dónde estás? Sólo son tóxicos y Wizard en el tema ... No puedo creerlo....
 
Mihail Marchukajtes:

Sí, en efecto, he preparado el archivo a la vez, son los mismos datos, pero recogidos de manera diferente.

Bueno, todavía tengo una teoría más, por así decirlo una suposición, quiero expresarla y escuchar la opinión no sólo de ti, tohis. (por cierto, ¿cómo te llamas? Porque no es habitual dirigirse por apodo) Sino también de Mago. Para que él es viejo en este negocio y recuerdo que todavía nos comunicamos en el NSH.

Bueno, en general, sorprendentemente, el primer conjunto de datos - contiene un poco de alfa, alrededor de 3-4% por encima del 50% al azar, si no te importa demasiado, es decir, teóricamente, con un mayor número de muestras puede ser de hasta 5-6% puede ser exprimido, que como por horas y días, en principio, MUY NO MAL, dados los costos de transacción ponzi. Hmmm... interesante, interesante... No estaría mal que alguien comprobara cuanta información hay.

Todo esto por supuesto si el targeting es correcto, si no hay retornos o precios pasados en el targeting. En el objetivo debe ser sólo el retorno futuro, así por ejemplo si usted tiene índices se construyen por ejemplo en el precio pt-n,...,pt-1,pt, el objetivo no debe "ver" el precio al que los signos se construyen, por ejemplo, el objetivo puede ser el signo de la próxima rentabilidad ((pt+2-pt+1)/pt+1).Sign(), pero si el objetivo será ((pt+1-pt)/pt).Sign()), la imagen se "difuminará" se obtendrá un rendimiento poco realista del modelo, falso"grial", es importante tenerlo en cuenta.


El segundo conjunto de datos (el más largo) no es nada bueno, lo has estirado de forma extraña, desplazado algunas características a otras)))).

 
toxic:

Bueno, en general, sorprendentemente, el primer conjunto de datos - contiene un poco de alfa, alrededor del 3-4% por encima del 50% al azar, si no te importa demasiado, es decir, teóricamente, con más muestras puede ser de hasta 5-6% puede ser exprimido, que como por horas y días en principio MUY NO MAL, dados los costos de transacción ponzi. Hmmm... interesante, interesante... No estaría mal que alguien comprobara cuanta información hay.

Todo esto por supuesto si el targeting es correcto, si no hay retornos o precios pasados en el targeting. En el target debe estar solo el retorno futuro, asi por ejemplo si tienes indices construidos por ejemplo al precio pt-n,...,pt-1,pt, el target no debe "ver" el precio al que se construyen los indices, por ejemplo el target puede ser el signo del siguiente retorno ((pt+2-pt+1)/pt+1).Sign(), pero si el objetivo será ((pt+1-pt)/pt).Sign()), la imagen se "difuminará" se obtendrá un rendimiento poco realista del modelo, falso "grial", es importante tenerlo en cuenta.


El segundo conjunto de datos (el más largo) no es nada bueno, lo has estirado de forma extraña, desplazado algunas características a otras)))).


Sí, mi salida está mirando hacia adelante, no te preocupes por la pureza de la recogida de datos, soy muy cuidadoso al respecto.

Fueron 15 minutos de datos.

El segundo acabo de convertir las columnas en filas, 11 piezas y multiplicó la salida, resulta que cuando recibimos una señal, presentamos 11 columnas 5 veces para una señal, incluso se puede organizar un comité a este nivel. También hice un archivo de este tipo para mí, tan pronto como la máquina está libre voy a tratar de girar.