Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3398
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¿Dónde exactamente? Yo diría que al principio es al revés.
porque no tengo muchos rasgos).
Así es como funciona, de "muchos" diferentes obtienes "no muchos" pero buenos.
Y cuantos más "muchos" tengas al principio, más ricos y mejores obtendrás "no muchos" pero buenos al final.
Así es como funciona, de "muchos" diferentes te salen "no muchos" pero buenos.
Y cuantos más "muchos" tengas al principio, más ricos y mejores obtendrás "no muchos" pero buenos al final.
Se hizo a través de gmdh o lo que sea
.
¿Qué tiene que ver LLM con esto?
¿qué tiene que ver el LLM?
Porque en teoría generalizan bien.
Cuanto mayor es la muestra de entrenamiento, mejores son las estadísticas (en general).
Porque generalizan bien, en teoría.
generalizan bien porque están entrenadas en conjuntos de datos de miles de millones de palabras, y tenemos precios.
¿Para qué vas a entrenar una neurona si está entrenada para hablar?
Y no puedes entrenar la tuya en precios porque necesitas muchas visualizaciones.
Así que o no sé algo o, de nuevo, ¿qué tiene que ver LLM con esto?
generalizan bien porque están entrenados con miles de millones de datos de palabras y tenemos precios.
Para qué vas a entrenar a una neurona si está entrenada para hablar?
Y no puedes entrenar las tuyas con precios porque necesitas muchas visualizaciones.
Así que o yo no sé algo o, de nuevo, ¿qué tiene que ver LLM con esto?
Vorontsov lo dice en el vídeo, tú lo has visto. Sobre el concepto de modelos fundamentales, a partir de la hora comienza.
Le pregunté a la mía
Vorontsov habla en el vídeo, ya lo has visto. Sobre el concepto de modelos fundamentales, a partir de la una.
Oh, lo recuerdo.
Así que es una especie de concepto, cualquier información se puede reducir a un vector, él está hablando de eembeddings, bueno, sí lo es.
Pero es sólo un concepto, y LLM está entrenado en incrustaciones de texto y nada más, toda su estructura está entrenada para ello.
Así que, si decides darle tus propias incrustaciones OHLC, no pasará nada )))
Necesitas entrenarlo desde cero en diferentes incrustaciones, diferentes tareas, diferentes objetivos... al mismo tiempo, para que escriba texto y dibuje y hable, etc... multimodalidad, en otras palabras.
Y si quieres coger una neura que sabe escribir texto y darle OHLC )) no funcionará.