Uso de la inteligencia artificial en MTS - página 8

 

2 SergNF.

Estoy tan lejos del tema como del Polo Sur. Sólo me enganché al post de eugenk, pero nadie lo apoyó. Y cuando me decidí a ver el experto, tanto tiempo y se esforzó por averiguar donde la IA y cómo enseñarlo. :-))

Pero luego, cuando incluso las preguntas elementales se me iban de las manos, no pude resistirme y me metí en medio. :-)

La tecnología aquí, por desgracia, se ha discutido muy poco. Sobre todo el experto. Pero la tecnología es ciertamente interesante. Tengo que reflexionar. Así que el tema fue muy útil para mí.

Estas cuentas son una cosa fina, no se puede aplicar a las divisas. :-)))

 
No puedo ver más. Todo son tonterías. Perdona que te diga que no. SergNF, ¿dónde puedo conseguir cuentas?
 
SergNF:

Usted toma su indicador favorito (si es externo, a través de iCustom) y emite su valor a un archivo para una cierta cantidad (cuánto quiere predecir en el futuro) ATRÁS y, hay opciones, Cierre/Alto/Mínimo "en la primera barra" o Máximo/Mínimo para este intervalo. Puede analizar y reflexionar sobre cómo aplicarlo leyendo artículos paralelos de http://www.tora-centre.ru/library/ns/spekulant04.htm, http://www.tora-centre.ru/library/ns/spekulant03.htm
Muchas gracias, SergNF, por los enlaces. Yo mismo hice mis pinitos con el NS hace más de un año (en TradingSolutions y de forma bastante directa): Utilizando la red Jordan-Elman traté de predecir el máximo y el mínimo para un día antes, adjuntando diferentes MAs a la entrada. Primitivo, por supuesto, pero aquí también saqué una serie de conclusiones útiles para mí, después de haber construido docenas de MAs muy diferentes y curiosas a lo largo del camino...

Entonces no pensé en ninguna clasificación de redes neuronales ni en los mapas de Kohonen, e hice una conclusión prematura, que las NS eran de poca utilidad, y luego empecé a experimentar con GA. Creo que mi trayectoria es la típica de la mayoría de los operadores que buscan el Grial en las NS, sin estudiarlas seriamente. Parece que ahora, en términos de Elliott, podemos decir que he superado con éxito las fases de la 1ª ola (ataque unilateral de prueba sin entrenamiento serio) y la 2ª ola (enfriamiento profundo) en el trato con la NS. Es la hora de la Tercera Ola, jeje...
 
sashken:
Pyh escribió:

P.D. Estoy de acuerdo con la opinión de Yurixx. No se debe tolerar la grosería, aunque hay que reconocer que el experto es muy curioso.
No me has convencido. ¡Entiendo muy bien que las pruebas sean por precios de apertura de bares, PERO ! Abre una barra y tenemos que encontrar (para este EA) el valor de la CA en cuatro puntos, incluyendo el valor de la CA de la barra que se acaba de abrir. ¿De dónde sacamos CA si se forma sólo en el cierre de la barra?

Usted mismo escribe que el bar se abrió, por lo que hay un precio de apertura del bar. Este (el precio de apertura de la barra) no cambiará durante la formación de la barra (puede cambiar el Alto, el Bajo y el Cierre, pero la Apertura - no, porque la barra ya está abierta).

Espero que esté claro:)
No lo tienen claro. Muchos no se dan cuenta de que cuando el Volumen[0] == 1 (es decir, el primer tick de una nueva barra), entonces Сlose[0] == Open[0] == High[0] = Low[0], es decir, el precio de cierre de la última barra ya se ha formado y variará por tick hasta el cierre de la barra. Y de este analfabetismo tan elemental y de las afirmaciones sobre la calidad supuestamente "adecuada" de las pruebas.

Sólo hay que escribir en la frente de todos los lamers insatisfechos con el destino con pintura indeleble (o mejor aún, quemarlo con hierro templado) que: "Close[0] es el Bid del último tick que llegó al terminal, no la capacidad telepática del probador de estrategias".
 
eugenk1:
Chicos, me pareció muy interesante lo que hizo Reshetov. Por supuesto, no estamos hablando de ningún tipo de inteligencia artificial. La IA es necesariamente adaptación y entrenamiento, al menos de una red neuronal, al menos de un filtro lineal. Pero creo que deberíamos hablar más bien del comportamiento grupal de los indicadores. A cada uno de ellos se le asigna un peso que refleja su importancia y utilidad. Y hay una "votación" ponderada: la suma. Lo único que tomaría para 4 indicadores 14 parámetros en lugar de 4, para dar cuenta de todas las posibles combinaciones de parámetros. Creo que es posible construir un verdadero sistema adaptativo de esta manera. Tomamos los índices normalizados (sobre los que escribí anteriormente) y estimamos la calidad de cada uno de ellos mediante operaciones virtuales. Un comerciante mentiroso es castigado con una disminución de peso (hasta negativo, lo que significa "interpretar mi señal exactamente en la dirección contraria"), mientras que uno que funciona bien es recompensado con un aumento de peso. Por cierto, este sistema realmente merece el título de inteligente... Si toma 10 símbolos en lugar de 4, el número de todas las combinaciones posibles será 1023. ¡Qué mente humana es capaz de analizar semejante montaña! Y el sistema puede...
Este enfoque se denomina adaptativo, aunque el algoritmo de aprendizaje clásico es bastante diferente, es decir, cuando:
  • neuronka miente, entonces es "stubbed": w[i] i= a[i] para todas las entradas denotadas por i;
  • la neurona ha dado una respuesta correcta, entonces recibe una "zanahoria": w[i] += a[i] para todas las entradas denotadas por i;
Luego se comprueba si es pésimo y si vuelve a mentir, se le vuelve a "azotar" en el culo desnudo hasta que deje de mentir.
Existe incluso un teorema, no recuerdo su nombre, que demuestra que este algoritmo tiene convergencia, es decir, que tarde o temprano encontrará una ecuación aceptable del plano de separación, pero sólo en ese caso si los objetos identificados son linealmente separables en el espacio de características de estos objetos.

Pero la identificación por compra y venta no es linealmente separable, por lo que la red neuronal sigue cometiendo errores, incluso si la pasas por el pulso con los algoritmos clásicos de entrenamiento.
 
Y, sin embargo, si el propio programa decide cuándo abrirse o cerrarse, entonces, por definición, tiene inteligencia artificial.
Y el proceso de optimización del Asesor Experto es el entrenamiento de este sistema.
 
Itso:
Y, sin embargo, si el propio programa decide cuándo abrirse o cerrarse, entonces, por definición, tiene inteligencia artificial.
Y el proceso de optimización del Asesor Experto es el entrenamiento de este sistema.
Aunque el comerciante decida cuándo y dónde abrir, y cuándo cerrar, esto no significa que tenga inteligencia. El retrasado puede ser entrenado para apretar botones. Pero la decisión de este imbécil de pulsar los botones no será inteligente desde el punto de vista del comercio, sino subjetiva (por ejemplo, el color de los botones será subjetivamente más atractivo para tomar una decisión, no el valor de la equidad).
 
Mathemat писал (а):
Hace más de un año hice mis pinitos con el NS (en TradingSolutions y de forma bastante sencilla): intenté predecir el máximo y el mínimo con un día de antelación alimentando diferentes MAs en la entrada, utilizando la red Jordan-Elman.

Exactamente, sólo estaba jugando con las neuronas. Si se ocupara de ello con seriedad, habría conocido un hecho matemáticamente bien fundado: "Las redes neuronales son adecuadas para la identificación, pero son absolutamente inapropiadas para la extrapolación", y en consecuencia no pueden predecir ningún valor para ningún período hacia adelante: los resultados serán de más o de menos. Pero en muchos casos es posible identificar qué objeto pertenece a qué clase con un cierto grado de fiabilidad.

Por ejemplo, podemos intentar averiguar la postura más rentable (comprar o vender) por los valores de los índices y osciladores. Y puede funcionar, porque la tarea tiene identificación. Pero si intentas usar las neuronas para calcular dónde debería estar el take profit de esas mismas poses, puede que tengas éxito en las pruebas, pero fuera de la muestra es poco probable, porque el valor del take profit es una extrapolación - el precio debería al menos tocarlo (para determinar los objetivos es probablemente mejor usar fuzzles).

En pocas palabras, intentabas clavar clavos en paredes de hormigón con un televisor.

En el libro se pueden leer conclusiones más detalladas y cálculos matemáticos realizados a partir de los resultados obtenidos tras la finalización del proyecto Perceptron:

Minsky, M y Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

traducción disponible:

Minsky M., Papert S. The Perseptron: Traducido del inglés: Mir, 1971. - с. 261

Mi consejo, niños, antes de tontear, y antes de hacer públicas conclusiones muy importantes basadas en los resultados del tonteo, intentad primero estudiar los materiales sobre el tema. En primer lugar, no hará ningún daño, y en segundo lugar, le permitirá no pisar el rastrillo, que todo el mundo conoce desde hace mucho tiempo.
 
Reshetov писал (а):
Minsky, M y Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

traducción disponible:

Minsky M., Papert S. The Perseptron: Traducido del inglés: Mir, 1971. - с. 261

Mi consejo, niños, antes de tontear, y antes de hacer públicas conclusiones muy importantes basadas en los resultados del tonteo, intentad primero estudiar los materiales sobre el tema. En primer lugar, no hará ningún daño, y en segundo lugar, le permitirá no pisar el rastrillo, que todo el mundo conoce desde hace mucho tiempo.
Gracias por señalar la fuente. Y en lo que respecta al material de origen, me familiaricé - en realidad lo hice a través de publicaciones sobre neuro-previsión. Tales publicaciones están todavía en curso e incluso afirman la idoneidad de neuro - a pesar de su veredicto categórico sobre la inutilidad de neuro para las tareas de interpolación(Reshetov, exactamente inter-, no extrapolación; deberías saberlo con seguridad, si hablas tan inteligentemente sobre la separabilidad lineal... Por cierto, si no me equivoco, el teorema de Minsky sobre la irresolubilidad de un problema lineal de no separabilidad (XOR, por ejemplo) mediante un perceptrón realmente enfrió el interés por la neuro, pero sólo hasta que pensaron en las redes multicapa).
 
Mathemat:
Reshetov:
Minsky, M y Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

traducción disponible:

Minsky M., Papert S. Perseptrons: Per. - с.

Mi consejo, amiguitos, es que antes de hacer el tonto y sacar conclusiones significativas para el público, se familiaricen con la literatura disponible sobre el tema. En primer lugar, no hará daño, y en segundo lugar, permitirá no pisar un rastrillo, sobre el que ya se sabe todo desde hace tiempo.
Gracias por señalar la fuente. Bueno, en cuanto a la matriz, en realidad estoy familiarizado - por las publicaciones sobre el tema de la neuro-predicción. Dichas publicaciones siguen en marcha e incluso reivindican la idoneidad de neuro -a pesar de tu categórico veredicto sobre la inadecuación de neuro para los problemas de interpolación(Reshetov, exactamente inter-, no extrapolación; deberías saberlo con seguridad, si razonas tan sabiamente sobre la separabilidad lineal... Por cierto, si no me equivoco, el teorema de Minsky sobre la irresolubilidad de un problema lineal de no separabilidad (XOR, por ejemplo) mediante un perceptrón realmente enfrió el interés por la neuro, pero sólo hasta que se inventaron las redes multicapa).
Los artículos son artículos, pero el significado geométrico no va a ninguna parte. Y es que un filtro lineal permite separar las moscas de las chuletas, si se conocen las coordenadas (valores de las características) de estos mismos objetos con un plano lineal bajo condición de separabilidad lineal. Pero no hay solución al problema inverso, es decir, nombrar un objeto a una neurona para averiguar sus coordenadas. Lo único que podemos averiguar sobre el objeto es en qué lado del plano de separación se encuentra. Por lo tanto, la interpolación y la extrapolación están fuera de lugar.
Razón de la queja: