Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3398

 
Hay un kozula al final de los fundamentos, yo llamaría la atención sobre eso
 
¿Dónde exactamente? Yo diría que al principio es al revés.
 
mytarmailS #:
¿Dónde exactamente? Yo diría que al principio es al revés.
Me refería al vídeo de Alexei, aún no he visto el tuyo. El tuyo es sobre la selección de características. No me gusta mucho, porque no tengo muchas señales).
 
Maxim Dmitrievsky #:
porque no tengo muchos rasgos).

Así es como funciona, de "muchos" diferentes obtienes "no muchos" pero buenos.

Y cuantos más "muchos" tengas al principio, más ricos y mejores obtendrás "no muchos" pero buenos al final.

 
mytarmailS #:

Así es como funciona, de "muchos" diferentes te salen "no muchos" pero buenos.

Y cuantos más "muchos" tengas al principio, más ricos y mejores obtendrás "no muchos" pero buenos al final.

Se ha hecho mediante gmdh o lo que sea.
Kozul parece prometedor (es muy difícil idear algoritmos basados en él, hay que tener una imaginación desbocada). Y los modelos lingüísticos: es muy difícil entrenarlos. Estos de Google son más cortos, hay un modelo pequeño para 2.000 millones de parámetros, aún puedes intentar entrenarlo. Metodología de una sola vez.
 
Maxim Dmitrievsky #:
Se hizo a través de gmdh o lo que sea
.
Kozul parece prometedor (es muy difícil idear algoritmos basados en él, hay que tener una imaginación desbordante). Y los modelos lingüísticos son muy difíciles de entrenar. Estos de Google son más cortos, hay un pequeño modelo para 2 mil millones de parámetros, todavía se puede tratar de entrenarlo. Metodología de una sola vez.

¿Qué tiene que ver LLM con esto?

 
mytarmailS #:

¿qué tiene que ver el LLM?

Porque en teoría generalizan bien.

Cuanto mayor es la muestra de entrenamiento, mejores son las estadísticas (en general).

 
Maxim Dmitrievsky #:
Porque generalizan bien, en teoría.

generalizan bien porque están entrenadas en conjuntos de datos de miles de millones de palabras, y tenemos precios.

¿Para qué vas a entrenar una neurona si está entrenada para hablar?

Y no puedes entrenar la tuya en precios porque necesitas muchas visualizaciones.


Así que o no sé algo o, de nuevo, ¿qué tiene que ver LLM con esto?

 
mytarmailS #:

generalizan bien porque están entrenados con miles de millones de datos de palabras y tenemos precios.

Para qué vas a entrenar a una neurona si está entrenada para hablar?

Y no puedes entrenar las tuyas con precios porque necesitas muchas visualizaciones.


Así que o yo no sé algo o, de nuevo, ¿qué tiene que ver LLM con esto?

Vorontsov lo dice en el vídeo, tú lo has visto. Sobre el concepto de modelos fundamentales, a partir de la hora comienza.

Le pregunté a la mía


 
Maxim Dmitrievsky #:

Vorontsov habla en el vídeo, ya lo has visto. Sobre el concepto de modelos fundamentales, a partir de la una.

Oh, lo recuerdo.

Así que es una especie de concepto, cualquier información se puede reducir a un vector, él está hablando de eembeddings, bueno, sí lo es.

Pero es sólo un concepto, y LLM está entrenado en incrustaciones de texto y nada más, toda su estructura está entrenada para ello.

Así que, si decides darle tus propias incrustaciones OHLC, no pasará nada )))


Necesitas entrenarlo desde cero en diferentes incrustaciones, diferentes tareas, diferentes objetivos... al mismo tiempo, para que escriba texto y dibuje y hable, etc... multimodalidad, en otras palabras.

Y si quieres coger una neura que sabe escribir texto y darle OHLC )) no funcionará.

Razón de la queja: