Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 556

 
Aleksey Terentev:
Sobreajuste - Ocurre en presencia de grandes pesos (~10^18), una consecuencia de la multicolinealidad, que conduce a un modelo inestable A(x, w).


El sobreentrenamiento se trata mediante: la detención temprana del aprendizaje del modelo, la limitación del crecimiento de los pesos (regularización L1(Lasso) y L2), la limitación de los vínculos en la red (Dropout), también la posible aplicación de funciones de penalización (ElacticNet, Lasso).

Y la regularización L1 conduce a la selección de características, ya que se centra en sus coeficientes de peso.

La eliminación de rasgos "ruidosos" es la selección de rasgos. Existen métodos para ello. Esto no siempre beneficia al modelo, por lo que a veces se utiliza la regularización L2 (ayuda a resolver el problema de la multicolinealidad).


SanSanych Fomenko, su afirmación sobre la relación de las características y los objetivos es un poco presuntuosa. Porque cómo se puede afirmar algo que aún no se ha demostrado; para eso está construido el modelo MO. Un modelo construido y que funciona da una estimación de cuál es la relación con "tal o cual" precisión.

Y el ejemplo de los pantalones y las faldas, muestra la escasez de conocimientos del investigador sobre la zona de estudio, porque en ese modelo se desechan atributos valiosos sobre el lugar de residencia, la época del año, la latitud y la longitud de la región de residencia, etc.


Mi ejemplo es un caso degenerado, pensamiento puro, clasificación sin error. En la economía no existen estas características, pero en la genética, si no es el 100%, es posible un poco menos.

Ahora sobre la regularización.

Sin duda.

Pero la coherencia es importante.

En primer lugar, siempre, la selección de rasgos basada en la "relación" con el objetivo. Si en los mercados de valores, basado en las relaciones económicas.

Esto es siempre lo primero y luego todo lo demás.


Tengo un TS que funciona con rf. Selecciono 27 predictores de entre varios cientos de atributos utilizando la "relación". Luego selecciono entre 27 con algoritmo estándar en cada barra (H1), quedan de 5 a 15, siempre son diferentes. Limito el número de árboles, 100 es mucho, 50 no es suficiente, el error a 50 no se estabiliza.

Se trata de una experiencia concreta. El error de clasificación de ZZ es ligeramente inferior al 30%. No hay forma de reducir - se necesitan otros predictores, y no hay ideas en los predictores.

 
SanSanych Fomenko:

Dado que tiene tantos parámetros a la vez para la entrada, entonces está claro a qué se refiere.

En ese caso, el reciclaje es algo secundario aquí, que es probablemente lo que me llamó la atención. Está más cerca de "facilitar" los cálculos.

 
Aleksey Terentev:

Al tener tantos parámetros a la vez para la entrada, está claro lo que quieres decir.

En ese caso el sobreajuste es algo secundario aquí, que es probablemente lo que me llamó la atención. Está más cerca de la "flexibilización" de los cálculos.


¿Por qué secundaria?

¿Qué es lo principal?

¿Qué puede dar más miedo que el exceso de ajuste?

 
SanSanych Fomenko:

¿Por qué secundaria?

¿Qué es lo principal?

¿Qué puede dar más miedo que el sobreentrenamiento (sobreajuste)?

En la pregunta planteada sobre los parámetros de muestreo para la clasificación con algunas correlaciones entre los datos objetivo, usted mencionó el sobreajuste. Intenté corregirte y generalizar esta pregunta a la tarea de selección de características. Al mismo tiempo, hice consideraciones sobre el sobreentrenamiento, en las que se plantea la cuestión de la selección como consecuencia.
Por eso digo que en la cuestión planteada, el sobreentrenamiento es secundario.
Aunque lo has señalado correctamente, debería haber dicho: "La selección de parámetros es secundaria a la reconversión, y merece la pena considerar la cuestión con más detalle a partir de ahí".
 
Se ha añadido un indicador de señal, si está interesado. https://www.mql5.com/ru/blogs/post/712023
 
Добро пожаловать в эру глубокой нейроэволюции
Добро пожаловать в эру глубокой нейроэволюции
  • habrahabr.ru
От имени команды Uber AI Labs, которая также включает Joel Lehman, Jay Chen, Edoardo Conti, Vashisht Madhavan, Felipe Petroski Such и Xingwen Zhang. В области обучения глубоких нейронных сетей (DNN) с большим количеством слоев и миллионами соединений, для тренировки, как правило, применяется стохастический градиентный спуск (SGD). Многие...
 

resulta que la simple NS más allá de los límites de la muestra de entrenamiento funciona bastante mal (va a una constante hiperb. tangente)... en el caso de la regresión, es decir, no mucho mejor que la RF

artículo muy ilustrativo

https://habrahabr.ru/post/322438/


Нейронные сети в картинках: от одного нейрона до глубоких архитектур
Нейронные сети в картинках: от одного нейрона до глубоких архитектур
  • 2022.02.17
  • habrahabr.ru
Многие материалы по нейронным сетям сразу начинаются с демонстрации довольно сложных архитектур. При этом самые базовые вещи, касающиеся функций активаций, инициализации весов, выбора количества слоёв в сети и т.д. если и рассматриваются, то вскользь. Получается начинающему практику нейронных сетей приходится брать типовые конфигурации и...
 
Maxim Dmitrievsky:

resulta que la simple NS más allá de los límites de la muestra de entrenamiento funciona bastante mal (va a una constante hiperb. tangente)... en el caso de la regresión, es decir, no mucho mejor que la RF

artículo muy ilustrativo

https://habrahabr.ru/post/322438/


En mi opinión, es un artículo útil y que invita a la reflexión, sin pretensiones de novedad, pero con buen sentido práctico.


Aleksey Terentev:
Léalo con calma.
https://habrahabr.ru/post/345950/

IMHO es un artículo inútil, mala traducción, o soy un mal lector, pero para mí parece un amontonamiento trivial de ideas obsoletas y tristemente, es otra confirmación de la crisis del deep learning como tecnología de punta, incluso el verdadero padre de esta dirección Jeffrey Hinton en sus artículos sobre redes neuronales capsulares ha estado hablando de ello últimamente.

Sin embargo, respeto a Uber Taxi...)

 
Ivan Negreshniy:
Artículo útil e informativo, sin pretensiones de novedad, pero con un buen sentido práctico.

Por eso es fácil confundirse, digamos que estábamos usando lineal o regresión y todo estaba bien, y luego decidimos cambiar a MLP para las mismas tareas... y ni modo :)

Por eso todo el mundo prefiere utilizar la clasificación, aunque la regresión es buena para hacer pronósticos :)

Incluso diría que para las tendencias es más adecuada la lineal o la regresión, y para las planas - MLP.

 

El ejercicio con el garch ha producido un patrón sorprendente.

Este es el cociente EURCAD


Y aquí está la autocorrelación de los incrementos absolutos


¡Increíble regularidad!

1. ¿Qué significa?

2. ¿Cómo se puede utilizar esta regularidad?


PS.

No todos los pares de divisas tienen esta visión.

Aquí está el USDJPY


Razón de la queja: