Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 500

 
Maxim Dmitrievsky:

Lo siento, pero no has demostrado tu valía en ninguna de mis preguntas hasta ahora, al menos no lo he visto

Y no tiene sentido escribir como el Capitán Obvio y poner todo patas arriba para volver a parecer un poco importante.


Estás confundiendo lo básico. Aprenda - necesita aprender, por su propio bien. Aprenda en lugar de responder...


ss

Y no necesito demostrarte nada.

 
Oleg avtomat:

Estás confundido con lo básico. Aprenda - necesita aprender, por su propio bien. Aprenda en lugar de responder...


.

Y no tengo necesidad de demostrarte nada.


otro fuera... en lugar de responder a la simple pregunta de si se puede o no extrapolar desde el andamiaje :D

He dado un ejemplo claro: no. Se me argumentó, pero nadie supo explicar, y ahora tengo que ir a leer un libro porque nadie sabe una mierda :)

Era una pregunta muy sencilla para los que saben mucho de MO, pero resulta que nadie lo sabe.

Y por supuesto todo el mundo es tonto, especialmente en hubra y todos los que escriben artículos, y al parecer Leo Brayman también es tonto

 
Maxim Dmitrievsky:

otra suprema... en lugar de responder a la simple pregunta de si los bosques son capaces de extrapolar o no :D

He dado un ejemplo claro: no. Me han argumentado, pero nadie me lo ha podido explicar, y ahora tengo que ir a leer un libro porque nadie sabe una mierda :)

Era una pregunta muy sencilla para los que saben mucho de MO, pero resulta que nadie lo sabe.


Si planteas una pregunta así, ya estás demostrando el nivel de tu comprensión y conciencia.

 
Oleg avtomat:

Si planteas la pregunta así, ya estás demostrando tu nivel de comprensión y conciencia.


todo, adiós )

 
Maxim Dmitrievsky:

Adiós, entonces).


Salud. Aprende.

 
Dr. Trader:

Casi correcto, también hay un sesgo que se agrega adicionalmente al resultado

Lo más probable es que los valores y1, y2, y3 se utilicen en la capa de neuronas interna, y estos valores también deberían utilizarse como valores de entrada para la siguiente capa

O si Y1,Y2,Y3 son valores de salida, entonces se utilizan varias neuronas de salida para la clasificación - por ejemplo si el valor más grande entre Y1,Y2,Y3 es Y1, entonces el resultado es "clase 1", si el valor más grande es Y2, entonces el resultado es "clase 2", si el valor más grande es Y3, entonces el resultado es "clase 3". Si la neurona se utiliza para la regresión en lugar de la clasificación, la neurona de salida será sólo una. Si tenemos dos clases, podemos utilizar una sola neurona de salida (si el resultado es <0,5, entonces será la clase1, si >=0,5, entonces será la clase2).

Es muy fácil añadir una sigmoidea para la función de activación de una neurona, se necesita una función de este tipo

Y con ello ya tienes una neurona de pleno derecho con una capa interna (con tres perceptrones) y un perceptrón de salida.

resultado = perceptron4[0]


Gracias por la respuesta. Es bastante informativo para mí.

¿Supongo que es una neurona parcial? La descripción dice que ayuda cuando la entrada es cero. En su opinión, ¿para qué se utiliza una neurona de sesgo y qué pesos deben seleccionarse para ella? Básicamente es un peso.

¿Cuál es la mejor manera de comprobar el valor del umbral después de la transformación sigmoidea o después?

 
Dr. Trader:

El número de pesos de una neurona puede ser de decenas de miles o más. En mql y R hay bibilotes especiales para crear y entrenar neuronas, es mejor trabajar con ellos, y no programar tu propia neurona desde cero.


Me refería a que por ejemplo en mql4 era posible optimizar simultáneamente hasta 15 parámetros, y en mql5 más.

Y parece que se ajusta una capa, y luego la segunda capa con la primera optimizada, etc. Pero estaría bien poder optimizar todas las capas a la vez, pero la potencia de cálculo no nos lo permite.

Tengo la suposición de que cuando las capas se optimizan una por una, en ese caso algún patrón no es visto por el sistema.

Aunque se analice una capa, las siguientes se basarán en los supuestos de la primera.

 
Maxim Dmitrievsky:

otra suprema... en lugar de responder a la simple pregunta de si los bosques son capaces de extrapolar o no :D


otra alta... en lugar de responder a una simple pregunta - los bosques pueden extrapolar o no :D

Y también puedes hacer una pregunta: ¿los bosques al azar son dulces o salados? En general, puedes hacer un montón de preguntas idiotas e incluso recoger referencias en Internet.


No habría que responder si unos cuantos miembros del foro con una formación más sistemática no se pusieran a hablar del tema.


Los bosques aleatorios NO PUEDEN extrapolar ya que la palabra EXTRAPOLACIÓN no se les aplica en absoluto. Los bosques aleatorios, al igual que otros modelos de aprendizaje automático, pueden predecir valores futuros, pero NO ES EXTRAPOLACIÓN, de hecho el término EXTRAPOLACIÓN no es aplicable en estadística en absoluto.


Y he aquí por qué.

Originalmente, el término EXTRAPOLACIÓN a funciones, funciones ordinarias que tienen una fórmula.

Por ejemplo.

у = а+ bх

Según esta fórmula, se pueden calcular los valores de una función dentro del campo de definición original (interpolación) y fuera - extrapolación.


No existen tales fórmulas en la estadística.

Y todo esto de "¿puede un bosque aleatorio extrapolar?" tiene algo que ver, porque en estadística el análogo parece:

у ~ а + bх

Para distinguir una función lineal de una regresión lineal, se utiliza una tilde en lugar de un igual.

Esta distinción recoge el hecho de que, "a" en una ecuación lineal no es "a" en una regresión lineal, como indica la tilde. Lo mismo ocurre con "b".

Mientras que en la primera ecuación "a" es una constante, en la segunda ecuación "a" es la expectativa matemática, que va acompañada de un valor de varianza y una estimación con la probabilidad de la hipótesis nula de que ese valor de "a" que vemos no existe. Si la probabilidad de que esto NO exista es superior al 10%, entonces el valor de "a" puede desestimarse.


Ahora a su pregunta:

- ¿Podemos extrapolar la ecuación de regresión?

- No, no puedes. Pero se puede predecir el valor futuro de una variable aleatoria que tomará un valor dentro de un intervalo de confianza. Si ese intervalo de confianza es del 95% (5% de probabilidad bajo la hipótesis nula), entonces obtenemos "y" dentro de ese intervalo de confianza. Y si se obtiene una estimación de "a" con una varianza múltiplo de ese valor, no se puede predecir nada en absoluto.


Espero haber explicado con detalle que tu pregunta que tiene sentido en presencia de funciones, no tiene ningún sentido en estadística.

 
SanSanych Fomenko:


Ahora a su pregunta:

- ¿Puedes extrapolar la ecuación de regresión?

- No, no puedes. Pero es posible predecir el valor futuro de una variable aleatoria que tomará un valor dentro del intervalo de confianza. Si ese intervalo de confianza es del 95% (5% de probabilidad bajo la hipótesis nula), entonces obtenemos "y" dentro de ese intervalo de confianza. Y si se obtiene una estimación de "a" con una varianza múltiplo de ese valor, no se puede predecir nada en absoluto.


Ahora, preste atención, no hubo tal pregunta... )

Había una pregunta, como por ejemplo

Dr. Trader:

La extrapolación implica la predicción de nuevos datos más allá de los valores del predictor conocidos durante el entrenamiento.

Yo añadiría que no predictores, sino objetivos, porque si son predictores entonces se trata de interpolación y no de extrapolación.

Así, un bosque aleatorio puede interpolar (ni siquiera necesita normalizar las entradas) pero no puede extrapolar.

Enestadística, es la extensión de las tendencias pasadas establecidas a un periodo futuro (la extrapolación en el tiempo se utiliza para las estimaciones prospectivas de la población); la extrapolación de los datos de la muestra a otra parte de la población que no ha sido observada (extrapolación en el espacio).

Si tomas un árbol de regresión, no podrá propagar sus resultados a NUEVOS datos, por ejemplo a cotizaciones por encima de 1,4500, y siempre dará una previsión de 1,4500 pero nunca más y nunca menos de 1,3000, porque fue entrenado en una muestra de 1,3000-14500, por ejemplo (como objetivo) y esto viene del principio de los árboles de decisión

A diferencia de los árboles, la regresión lineal y una red neuronal pueden hacerlo fácilmente porque se construyen según principios diferentes

Una vez más: se pueden introducir nuevos datos fuera del intervalo de entrenamiento en las entradas de la nueva muestra de RF y ésta los interpola perfectamente. Pero en la salida no extrapola, es decir, los valores predichos nunca irán más allá del intervalo de salida en el que fue entrenado.

 
Maxim Dmitrievsky:

Ahora, presten atención, no hubo tal pregunta... )

Había una cuestión, como, por ejemplo, señaló

Dr. Trader:

La extrapolación implica predecir nuevos datos más allá de los valores de los predictores conocidos durante el entrenamiento.

Yo añadiría que no predictores, sino objetivos, porque si son predictores entonces se trata de interpolación y no de extrapolación.

Así, un bosque aleatorio puede interpolar (ni siquiera necesita normalizar las entradas) pero no puede extrapolar.

Enestadística, es la extensión de las tendencias pasadas establecidas a un periodo futuro (la extrapolación en el tiempo se utiliza para las estimaciones prospectivas de la población); la extrapolación de los datos de una muestra a otra parte de la población que no ha sido observada (extrapolación en el espacio).

Si tomas un árbol de regresión, no podrá propagar sus resultados a NUEVOS datos, por ejemplo a cotizaciones por encima de 1,4500, y siempre dará una previsión de 1,4500 pero nunca más y nunca menos de 1,3000, porque fue entrenado en una muestra de 1,3000-14500, por ejemplo (como objetivo) y esto viene del principio de los árboles de decisión

A diferencia de los árboles, la regresión lineal y una red neuronal pueden hacerlo fácilmente porque se construyen según principios diferentes

Una vez más: se pueden introducir nuevos datos fuera del intervalo de entrenamiento en las entradas de la nueva muestra de RF y ésta los interpola perfectamente. Pero en la salida no extrapola, es decir, los valores predichos nunca irán más allá del intervalo de salidas en el que fue entrenado.


No has entendido nada de mi post. Nada en absoluto.


Disculpa el post por tu presencia.