Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 594

 
Alexander_K2:

No puedo dormir, he leído un poco en Internet. Este me ha gustado:

"El hecho de que se utilicen incrementos no es tan malo en el contexto general, la mayoría de los precios logarítmicos se alimentan de la entrada, los incrementos son un paso adelante, aunque ambos son adecuados.

Conozco gente que ha sacado el grial de NS, pero esos tipos son tan cerrados para la comunicación e incluso para las pistas sobre lo que hacen, soy un principiante así que definitivamente no tengo ninguna posibilidad. Sólo sé que todo es complicado, no es Vels, no es Metatrader e incluso no es S#, y C++ y MatLab con unos chips que decodifican e interpretan los datos que vienen de los caliders, resultó que es una misma metodología, me enteré y me asusté, están trabajando con el tío que molía terabytes al día en el CERN buscando nuevas partículas en el caos cuántico.

Es curioso. Me mantengo en mi opinión - es necesario alimentar el más puro, como una lágrima, los incrementos de precios a la entrada de NS. Los incrementos son la clave de todo. Son la base de la solución a este problema. De hecho, en Forex seguimos un proceso pseudoestacionario de movimiento de un paquete de ondas ( función de densidad de probabilidad) de estos incrementos. Y nada más. (Ya he escrito este párrafo :)))


De la biografía de B.Fritzke destaca que en 2001 puso fin a su carrera de científico en la Universidad del Ruhr (Bochum, Alemania) debido a una oferta de trabajo en la Bolsa alemana (Deutsche Bӧrse) . No voy a ocultar que este hecho me sirvió de incentivo adicional para elegir su algoritmo como base para escribir este artículo.

https://www.mql5.com/ru/articles/163

en general, estoy asombrado... sentado frente a mi ordenador por la noche... por qué no escribo un er... gas neuronal creciente... como...

BLEEP, me sorprende lo inteligente que es la gente

Растущий нейронный газ - реализация на языке программирования MQL5
Растущий нейронный газ - реализация на языке программирования MQL5
  • 2010.09.24
  • Alexey Subbotin
  • www.mql5.com
В 90-х годах прошлого века исследователи искусственных нейросетей пришли к выводу о необходимости развития нового класса этих вычислительных механизмов, особенностью которого было бы отсутствие фиксированной топологии слоев сети. Это означает, что количество и расположение искусственных нейронов в пространстве признаков не задается заранее, а...
 
Maxim Dmitrievsky:

...que está jugando al forex con ella misma...

...bueno, Yuri ya ha escrito sobre ello...

¿Qué tipo de neurona puede hacer eso? De alguna manera me perdí esos mensajes.

 
Dr. Trader:

¿Qué tipo de neuronas pueden hacer eso? De alguna manera me perdí esos mensajes.


Bueno, el aprendizaje por refuerzo en general, pero podría haber variaciones en

q-learning, por ejemplo.

No se incluye en el apartado de neurodinámica... ya que se entrena de forma diferente, pero la topología y los pesos de las neuronas no cambian cuando ya está entrenada, parece

 
Yuriy Asaulenko:
Está en marcha. Pero tú eres todo sobre ACM, sí ACM. Lo digo en serio. No es bueno, siempre y cuando estemos comprometidos con la DM. Yo creo que sí.
Primero, yo no, y Maxim sobre la ACM, que es en realidad lo que escribí que no iba.
En segundo lugar, yo mismo tengo la ACM sólo como interfaz, lo que significa que, si es necesario, puedo cambiar las interfaces sin cambiar el sistema de análisis.
 

Todo el mundo habla de lo que hay que dar de comer a la entrada. En mi opinión, lo que se alimenta a la salida es igual de importante. Si se alimenta el zigzag, la red no se entrena en absoluto con ninguna entrada. Si se equilibran las clases. Es decir, si eliminamos la mayoría de las entradas que no muestran inversiones, el resultado tampoco se sostiene. Si fijamos el precio medio de una barra superior o inferior al de la barra anterior a las salidas. Obtenemos exactamente el 50% de las respuestas correctas. Lo cual tampoco es bueno. ¿Qué más se nos ocurre?

 

hola, ¿has terminado el robot? con la IA.

es el momento de probarlo ))

 

Interesante pensamiento https://monographies.ru/en/book/section?id=2465.

Cuando se modelan redes neuronales con funciones de activación de neuronas lineales, es posible construir un algoritmo que garantice alcanzar un error de aprendizaje mínimo absoluto. En el caso de las redes neuronales con funciones de activación no lineales, generalmente no es posible garantizar que se alcance un mínimo global de la función de error.
...............

En el caso de un modelo de red lineal y una función de error como suma de cuadrados, dicha superficie (de la función de error) sería un paraboloide, que tiene un único mínimo, y esto hace que sea relativamente fácil encontrar dicho mínimo.

En el caso de un modelo no lineal, la superficie de error tiene una estructura mucho más compleja y presenta una serie de propiedades desfavorables, en particular puede tener mínimos locales, zonas planas, puntos de silla de montar y barrancos largos y estrechos.

¿Tal vez deberíamos utilizar más neuronas para las funciones de activación no lineales? Para suavizar todas estas irregularidades.

 
Grigoriy Chaunin:

Todo el mundo habla de lo que hay que dar de comer a la entrada. En mi opinión, lo que se alimenta a la salida es igual de importante.


Cuando entras en un edificio llamado "Estadística", encima de la entrada pone"Basura que entra, basura que sale".



 
SanSanych Fomenko:

Cuando entras en un edificio llamado "Estadística", encima de la entrada pone"Basura que entra, basura que sale".

))

 
Aleksey Terentev:
En primer lugar, no soy yo, sino Maxim sobre ACM, por lo que en realidad escribí que no funcionaba.
En segundo lugar, yo mismo tengo la ACM sólo como interfaz, por lo que si es necesario, puedo cambiar las interfaces sin cambiar el sistema de análisis.
Lo siento, realmente pensé que estaba respondiendo a Maxim.
Razón de la queja: