Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 607

 
Vizard_:

Hablemos de aprender DAO, ugh, TAU))


No, no... aquí sólo hay DAO...

 
Vizard_:

Paquete learningCurve, R, Curva de aprendizaje.

¿Cómo ayudan a calcular el número de neuronas?
 
elibrarius:
¿Cómo ayudan a calcular el número de neuronas?

si el error deja de caer bruscamente entonces deja de enseñar :)

 
Maxim Dmitrievsky:

Si el error deja de bajar drásticamente, entonces deja de aprender :)

Podemos entrenar sólo la red con la estructura ya definida y buscar errores. En primer lugar hay que determinar la estructura, es decir, el número de neuronas en las que luego se pueden buscar errores.

Es decir, la pregunta es cómo learningCurve antes del entrenamiento ayuda a determinar el número óptimo de neuronas.

O por cualquier otro método.

 
elibrarius:

Podemos entrenar sólo una red con una estructura ya dada y buscar errores. En primer lugar, tenemos que definir la estructura, es decir, el número de neuronas en las que podemos observar los errores.

Es decir, la pregunta es cómo learningCurve antes del aprendizaje ayuda a determinar el número óptimo de neuronas.

O por cualquier otro método.


Resulta que no importa el número... el aprendizaje simplemente se detiene cuando el error deja de caer y no se produce ningún reentrenamiento. Así que puede haber un gran número de neuronas

si lo he entendido bien.

 
Vizard_:

Vamos sobre la cognición DAO, ugh, TAU))


La relatividad de la cognición se debe a muchas razones, entre las que cabe mencionar, en primer lugar, la diferente disposición de la conciencia para el acto de percibir y comprender el mismo fenómeno, lo que conduce a diferentes resultados de la cognición (reacciones, toma de decisiones, acciones, etc.).

 
Maxim Dmitrievsky:

Resulta que el número no importa... el entrenamiento simplemente se detiene cuando el error ha dejado de caer y no se produce ningún reentrenamiento. Así que podría haber un gran número de neuronas

si lo he entendido bien.

Esta es una parada temprana. No veo ninguna relación con el paquete learningCurve.

En el método de parada anticipada, el entrenamiento se detiene cuando la complejidad de la red alcanza un valor óptimo. Este momento se estima por el comportamiento temporal del error de validación.

Pero también tiene sus puntos débiles: una red demasiado grande detendrá su aprendizaje antes de tiempo, cuando las no linealidades aún no han tenido tiempo de manifestarse plenamente. Es decir, esta técnica está cargada de encontrar soluciones débilmente no lineales.

Vizard_:

Errores (2pc).

Por favor, escriba con más detalle. ¿Cómo ayuda learningCurve a determinar el número de neuronas de la red?

 

No puedo decir nada sobre la regularización, no he experimentado con ella.

Pero la detención temprana conduce a un exceso de ajuste. De alguna manera funciona para el reconocimiento de imágenes debido a la gran similitud de los datos de prueba y de entrenamiento, por lo que se recomienda a menudo en libros y artículos. Pero no es adecuado para el mercado de divisas.


Aconsejo aprender la validación cruzada k-fold. He visto varias formas diferentes, esta funciona bien -

Usemos cinco faltas. Digamos que hay 1000 filas en una tabla de entrenamiento.

1) Entrenar el modelo en las filas 201-1000. Si se trata de una neurona, no hay ruptura temprana, sólo hay que enseñar a la neurona un cierto número de épocas suficientes para lograr una alta precisión. Predecir las líneas 1-200.
2) Vuelva a entrenar el modelo, ahora en las líneas 1-200 junto con la 401-1000, utilice los mismos parámetros del modelo y en general todos los ajustes idénticos. Predecir las filas 201-400.
3) Vuelva a entrenar el modelo, ahora en las filas 1-400 junto con la 601-1000, utilice los mismos parámetros del modelo y en general todos los ajustes idénticos. Predecir las filas 401-600.
4) Vuelva a entrenar el modelo, ahora en las filas 1-600 junto con la 801-1000, utilice los mismos parámetros del modelo y en general todos los ajustes idénticos. Predecir las filas 601-800.
5) Vuelva a entrenar el modelo, ahora en las filas 1-800, utilice los mismos parámetros del modelo y en general todos los ajustes idénticos. Predecir las filas 801-1000.

Como resultado tenemos cinco modelos creados con idéntico algoritmo de aprendizaje con idénticos parámetros. Y cinco predicciones, cada una hecha con datos desconocidos para el modelo.
Cinco matrices con predicciones se suman entre sí para obtener una matriz larga de longitud 1000, y la evaluamos contra los datos reales con la función R2. Esto evaluará nuestro modelo, el método de entrenamiento y todo.
Luego elegimos los parámetros del modelo (función de activación, número de capas y su tamaño, etc.) cada vez que hacemos todos estos pasos (entrenar 5 modelos, predecir 5 trozos únicos para cada modelo, fusionarlos, R2), obteniendo una estimación cada vez mejor.

Para predecir los nuevos datos en una operación real - predecimos cada uno de los cinco patrones, y para los cinco resultados encontramos la media, ésta será la predicción final sobre los nuevos datos.

p.s. El número de faltas es mejor tomarlo de un par de decenas, en este ejemplo sólo hay cinco para simplificar la descripción.

 

Un tipo especial de obtención, de detección de categorías es la operación por analogía del siguiente tipo: causa + condición → consecuencia, aquí la consecuencia viene sólo cuando la causa y la condición se combinan. Aplicando esta operación a las categorías de partes y conjunto, se puede encontrar la categoría de estructura que desempeña el papel de condiciones necesarias: partes + estructura → conjunto, es decir, no se puede obtener un conjunto sin una condición estructural correspondiente, no se puede obtener una montaña a partir de un número suficiente de granos de arena mientras estén simplemente tumbados en el plano. El requisito previo para obtener un sistema a partir de los elementos son las relaciones y conexiones entre los elementos: elementos + conexiones → sistema. La importancia de la forma pasó a primer plano cuando una simple aguja de coser se transformó en una aguja de máquina de coser, para lo cual el ojo se trasladó a la punta de la aguja. Para conseguir una nueva calidad de la aguja, había que cambiar la configuración: forma + configuración → calidad. Este ejemplo muestra al mismo tiempo la ley de desarrollo de los opuestos de un sistema: un cambio de calidad no requiere necesariamente un cambio de cantidad.

 

El número óptimo de elementos ocultos es un problema específico que debe resolverse con la experiencia. Pero como regla general: cuantas más neuronas ocultas, mayor es el riesgo de sobreaprendizaje. En este caso, el sistema no aprende las capacidades de los datos, sino que recuerda los propios patrones y el ruido que contienen. Una red de este tipo funciona bien en una muestra, pero mal fuera de ella. ¿Cómo podemos evitar el sobreaprendizaje? Hay dos métodos populares: la detención temprana y la regularización. El autor prefiere el suyo propio, relacionado con la búsqueda global.

Resumamos esta parte de la historia. El mejor enfoque para dimensionar la red es seguir el principio de Occam. Es decir, para dos modelos con el mismo rendimiento, el modelo con menos parámetros se generalizará con más éxito. Esto no significa que debamos elegir necesariamente un modelo simple para mejorar el rendimiento. Lo contrario es cierto: muchas neuronas ocultas y capas no garantizan la superioridad. Hoy en día se presta demasiada atención a las grandes redes y muy poca a los principios de su diseño. Más grande no siempre es mejor.


http://ai-news.ru/2016/05/tehnologii_fondovogo_rynka_10_zabluzhdenij_o_nejronnyh_setyah_578372.html

Технологии фондового рынка: 10 заблуждений о нейронных сетях
Технологии фондового рынка: 10 заблуждений о нейронных сетях
  • ai-news.ru
Нейронные сети - один из самых популярных классов алгоритмов для машинного обучения. В финансовом анализе они чаще всего применяются для прогнозирования, создания собственных индикаторов, алгоритмического трейдинга и моделирования рисков. Несмотря на все это, репутация у нейронных сетей подпорчена, поскольку результаты их применения можно...
Razón de la queja: