Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1526

 
La regresión y la clasificación son tareas que pueden realizar tanto los bosques como las redes neuronales.
El descenso gradual es un método mediante el cual las redes neuronales seleccionan pesos/multiplicadores/desplazamientos para las neuronas.
 
elibrarius:
La regresión y la clasificación son tareas que pueden realizar tanto los bosques como las redes neuronales.
El descenso gradual es el método por el que las redes neuronales seleccionan los pesos/multiplicadores/desplazamientos de las neuronas.

Gracias, pero no me refería a eso.
Sobre la similitud del resultado final, la regresión y el descenso de gradiente.
La regresión encuentra el punto medio entre los vecinos, el descenso de gradiente encuentra el punto más cercano.
Esencialmente me parece que los algoritmos de búsqueda son similares en el resultado final.
La diferencia sería el error de desviación. Así que me preguntaba, ¿cuál daría un error menor?
Me parece que el descenso por gradiente será más preciso que la regresión.

Lo que quiero decir es que, por ejemplo, hay un profesor, la salida de la red debería ser una copia del profesor, con un error mínimo.
Así que no puedo decidir qué modelo usar con qué algoritmo.

 
Romano:

Gracias, pero no me refería a eso.
Sobre la similitud del resultado final, la regresión y el descenso de gradiente.
La regresión encuentra el punto medio entre los vecinos, el descenso de gradiente encuentra el punto más cercano posible.
Esencialmente me parece que los algoritmos de búsqueda son similares en el resultado final.
La diferencia sería el error de desviación. Eso es lo que pensé que daría un error menor.
Creo que el descenso por gradiente será más preciso que la regresión.

 
Maxim Dmitrievsky:

No habría esperado otra respuesta.

 
Romano:

Gracias, pero no me refería a eso.
Sobre la similitud del resultado final, la regresión y el descenso de gradiente.
La regresión encuentra el punto medio entre los vecinos, el descenso de gradiente encuentra el punto más cercano.
Esencialmente me parece que los algoritmos de búsqueda son similares en el resultado final.
La diferencia sería el error de desviación. Así que me pregunté, ¿cuál daría un error menor?
Me parece que el descenso por gradiente será más preciso que la regresión.

Lo que quiero decir es que, por ejemplo, hay un profesor, la salida de la red debería ser una copia del profesor, con un error mínimo.
Así que no puedo decidir qué modelo usar con qué algoritmo.

La regresión y la clasificación son el resultado de una caja negra. El descenso es lo que ocurre en su interior. Estas cosas no se pueden comparar entre sí. Es como una imagen en una pantalla de televisión (el resultado) y el principio de una resistencia que está dentro de esa televisión.

Romano:


Así que no puedo decidir qué modelo usar con qué algoritmo.

Ninguno de los algoritmos tiene sentido. El mercado es SB (si nos fijamos únicamente en los precios).
El modus operandi funciona cuando hay un patrón. Nadie en este hilo, desde hace varios años, ha encontrado algo que gane consistentemente.
A menos que entrenes tu cerebro))

 
elibrarius:

Ninguno de los algoritmos tiene sentido. El mercado es SB (si nos fijamos únicamente en los precios).
El modus operandi funciona cuando hay un patrón. Nadie en este hilo, a lo largo de varios años, ha encontrado algo que gane consistentemente.
Sólo entrenan sus cerebros)).

Sólo se puede ganar de forma constante si se hace un scalping cuidadoso y se siguen estrictamente las tendencias principales - anterior, actual y siguiente

 
elibrarius:

La regresión y la clasificación son el resultado de una caja negra. El descenso es lo que ocurre en su interior. Estas cosas no se pueden comparar entre sí. Es como la imagen en la pantalla del televisor (el resultado) y el principio de la resistencia que está dentro de ese televisor.

No tiene sentido ninguno de los dos algoritmos. El mercado es SB (si nos fijamos únicamente en los precios).
El modus operandi funciona cuando hay un patrón. Nadie en este hilo, a lo largo de varios años, ha encontrado algo que gane consistentemente.
Sólo entrenan sus cerebros)).

Gracias por la aclaración.
La cuestión es que con MO no pienso buscar patrones de forma pura.
Estoy tratando de hacer una herramienta con la que detectar estos patrones.
Así que tengo que elegir el tipo de algoritmo adecuado para copiar el profesor a la salida de la red, con un error mínimo.
En este caso, la red no está buscando ningún patrón, sólo está copiando al profesor.

 
Romano:

Gracias por la aclaración.
Esa es la cuestión, no pienso buscar patrones de forma pura con MO.
Estoy tratando de hacer una herramienta con la que detectar estos patrones.
Así que tengo que elegir el tipo de algoritmo adecuado para copiar el profesor a la salida de la red, con un error mínimo.
En este caso la red no busca ninguna regularidad, sólo copia al profesor.

El pasado (es decir, el maestro) es bien recordado tanto por el bosque como por la NS. Pero en el futuro será 50/50
 
Elibrarius:

Ninguno de los algoritmos tiene sentido. El mercado es SB (si nos fijamos únicamente en los precios).

El modus operandi funciona cuando hay un patrón. Nadie en este hilo, desde hace varios años, ha encontrado algo que funcione de forma consistente.

Que sea SB.

Pero la SB, o más bien el proceso aleatorio, también tiene regularidades. Los discutimos más de una vez en la rama "De la teoría a la práctica" - es una varianza estacionaria, como consecuencia de la ecuación de Einstein-Smoluchowski y el retorno al punto de partida = 66% en el paseo bidimensional y la convergencia a la distribución gaussiana de un gran número de variables aleatorias independientes... Sí, muchas cosas... Hay toda una teoría de los procesos aleatorios y es posible ganar en SB, digan lo que digan.

Entonces, ¿por qué falla el modus operandi en esta tarea? Cuestión filosófica, conceptual. No sé la respuesta...

 
Alexander_K:

Que sea SB.

Pero, al fin y al cabo, la SB, o más bien un proceso aleatorio, también tiene regularidades. Los discutimos más de una vez en la rama "De la teoría a la práctica" - se trata de una varianza estacionaria como consecuencia de la ecuación de Einstein-Smoluchowski y de la vuelta al origen = 66% en el vagabundeo bidimensional y de la convergencia a la distribución gaussiana de la suma de un gran número de variables aleatorias independientes... Sí, muchas cosas... Hay toda una teoría de los procesos aleatorios y es posible ganar en SB, digan lo que digan.

Entonces, ¿por qué falla el modus operandi en esta tarea? Cuestión filosófica, conceptual. No sé la respuesta...

Tengo que terminar el tema en este otoño, de lo contrario se va a volver aburrido de alguna manera. He pasado mucho tiempo estudiando los complementos de las redes neuronales, y luego la teoría de la aplicación, que nadie ha desarrollado para los mercados financieros. De alguna manera, los científicos de datos suelen evitarlo con remilgos.

Tengo una suscripción de pago a todo tipo de documentos académicos e investigaciones de profesores, pero todos trabajan con opciones, principalmente. Creen que está demostrado que no hay nada que coger en el acto.
Razón de la queja: