Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2212

 
Maxim Dmitrievsky:

¿Qué quieres decir con que no puedes... bueno, puedes dividirlo))

si un criterio tiene un mínimo global de -1000, el otro 0, y el tercero 150k

¿qué quieres añadir ahí? )))))) no sabes de lo que estás hablando

 
mytarmailS:

Si un criterio tiene un mínimo global de -1000, otro 0, y un tercero 150k

¿qué estás sumando ahí? )))))) no sabes de lo que estás hablando

no los hagas infinitos, sólo ponlos en un rango como todos los demás, de 0 a 1

 
Maxim Dmitrievsky:

Así que no los hagas infinitos, hazlos en un rango como todos los demás, de 0 a 1

No, Max, no funciona así, la optimización es una búsqueda de lo desconocido (funciones, parámetros, etc.)

Para poner "algo" en el rango 0-1, necesito tenerlo, no lo tengo, uso la optimización para encontrarlo.

 
mytarmailS:

No, Max, no funciona así, la optimización es una búsqueda de lo desconocido (funciones, parámetros, etc.)

Para conseguir "algo" en el rango 0-1 necesito tenerlo, no lo tengo, uso la optimización para encontrarlo...

lo que sea... tienes una función que necesita ser maximizada/minimizada... todo

por eso todos los f-i sanos están en rangos. y tienes un fi de fumador

 
Maxim Dmitrievsky:

lo que sea... Tienes una función para maximizar/minimizar... todo.

Escucha, ¿has hecho alguna vez en tu vida una búsqueda de parámetros multicriterio?

 
mytarmailS:

Mira, ¿has hecho alguna vez en tu vida una búsqueda de parámetros multicriterio?

No entiendo lo que estás haciendo. Dibuja un diagrama.

 
Maxim Dmitrievsky:

No entiendo lo que estás haciendo, dibuja un diagrama.

Se entrena la neurona para el " beneficio máximo". Esto es el entrenamiento para un criterio ( "beneficio máximo").


Alexander Alexandrovich dice que neuronka encuentra la mejor solución "no comerciar". No puedo entender cómo lo hizo, pero bueno...

Así que si la neurona decidió "no comerciar" Así que si la neurona decidió "no negociar", significa que tenemos que añadir un criterio más (un número mínimo de operaciones): "min. deals".


Resulta que ya tenemos que optimizar utilizando dos criterios (o 10)

Aquí no se puede normalizar nada, porque no conocemos el resultado final

 
mytarmailS:

Así que se entrena la neurona para obtener el "máximo beneficio". Esto es entrenar según un criterio ( "máximo beneficio").


Alexander Alexandrovich dice que la neurona encuentra la mejor solución "no comerciar". No puedo entender cómo lo hizo, pero bueno...

Así que si la neurona decidió "no comerciar" Así que si la neurona decidió "no negociar", significa que tenemos que añadir un criterio más (un número mínimo de operaciones): "min. deals".


Resulta que ya tenemos que optimizar utilizando dos criterios (o 10)

No podemos normalizar nada aquí ya que no conocemos el resultado final

Creo que ese es el problema

cuando nadie entiende nada, pero empiezan a construir sobre ella.

por eso hay un curso de redes neuronales para nerds.

 
Maxim Dmitrievsky:

Creo que ese es el problema.

cuando nadie entiende nada, pero empiezan a completarlo desde arriba

probablemente....

========================

hizo una gran muestra de prueba

en el recuadro está el trozo de la prueba (datos nuevos) que mostré

De todos modos, durante 5 minutos, se comerá la comisión

Pero es posible sintetizar un modelo interesante


Es necesario incluir inmediatamente en la función de aptitud el entrenamiento del modelo y la comprobación en las muestras de eje y de prueba

Hasta ahora he hecho todo muy confuso.

 
mytarmailS:

probablemente....

========================

hizo una gran muestra de prueba

en el recuadro está el trozo de la prueba (datos nuevos) que te mostré.

De todos modos, durante 5 minutos, la comisión se lo comerá todo.

Pero es posible sintetizar un modelo interesante


Es necesario incluir inmediatamente en la función de aptitud el entrenamiento del modelo y la comprobación en las muestras de eje y de prueba

He hecho todo muy confuso hasta ahora.

Gracias, no están claros.

Razón de la queja: