"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 38

 
gpwr:
Los filtros se entrenan sin profesor presentando 10000-40000 secciones de la historia seleccionadas al azar (el mismo número de iteraciones). El aprendizaje es muy rápido. Dependiendo del ordenador, se entrenan 10000 filtros en 20000 parches de historia desde 1-2 minutos en 360 procesadores GPU CUDA, alrededor de 1 hora en 4 procesadores Intel con 16 pistas, 3-4 horas en mi portátil con un procesador y dos pistas. Sin embargo, el tiempo no importa realmente aquí. Incluso si necesito uno o dos días para este entrenamiento de filtros, sólo se hace una vez para cada cotización (EURUSD, USDJPY, etc.). Una vez entrenados los filtros, no cambian y se utilizan para filtrar nuevos precios. El filtrado en sí es muy rápido: calculamos la suma de los productos del precio y los coeficientes del filtro.

Por lo que recuerdo, hay que pasar cada segmento varias veces para que la parrilla se considere entrenada,

la pregunta es, ¿cuántas veces habría que presentar cada ejemplo?

 
Urain:

Por lo que recuerdo, para que la parrilla se considere entrenada, cada sección debe ser recorrida varias veces,

la pregunta es, ¿cuántas veces hay que presentar cada ejemplo?

No tienes que pasar por la misma sección de la historia varias veces. Y no tienes que pasar por todas las partes de la historia al menos una vez. Algunas secciones de la historia pueden omitirse. Los filtros recogen esencialmente las estadísticas de las cotizaciones mediante muestras aleatorias. La aleatoriedad de una muestra es lo principal aquí. Si se escanea todo el historial de forma secuencial, los filtros se inclinarán hacia las estadísticas del principio del historial.
 
gpwr:
No tienes que pasar por la misma parte de la historia varias veces. Y no tienes que pasar por todas las partes de la historia al menos una vez. Algunas secciones de la historia pueden omitirse. Los filtros recogen esencialmente las estadísticas de cotización de muestras aleatorias.
No, estás hablando de filtros, ya te dije que esto es un aparte, estoy hablando de algoritmos de aprendizaje de NS.
 
Urain:
No, estás hablando de filtros, ya te advertí que la pregunta es lateral, estoy hablando de algoritmos de aprendizaje NS.
Entonces realmente no lo entiendo. La red que propongo consta de dos módulos: un módulo de conversión de datos con varias capas de filtros y un módulo de clasificación. Los filtros del primer módulo se entrenan sin maestro en todo el historial una vez y se recuerdan para todas las aplicaciones posteriores de la red. Una vez entrenados los filtros, enseñamos el segundo módulo con el maestro, es decir, la entrada del primer módulo contiene un patrón de precios y la salida del segundo módulo contiene las señales conocidas Comprar (+1), Vender (-1), Mantener (0). El segundo módulo puede ser cualquier red neuronal que conozcamos, por ejemplo, la red Feed-Forward (FFN o MLP), la máquina de vectores de apoyo (SVM), la función de base radial (RBF). La curva de aprendizaje de este módulo es tan larga como sin el primer módulo de filtrado. Como he explicado antes, en mi opinión el segundo módulo no es tan importante como el primero. Primero debe transformar (filtrar) correctamente las cotizaciones antes de alimentarlas a la red. El método de filtrado más sencillo es МА. También se pueden aplicar otros indicadores, lo que ya hacen la mayoría de los operadores de redes neuronales. Propongo un "indicador" especial que consiste en varias capas de filtros similares a los filtros biológicos para tal transformación de las cotizaciones que los mismos patrones pero distorsionados son descritos por el mismo código en la salida de este "indicador" (el primer módulo de mi red). A continuación, es posible clasificar estos códigos en el segundo módulo utilizando métodos conocidos.
 
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
  • www.intuit.ru
Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей.
Archivos adjuntos:
Books.zip  14709 kb
 

gpwr:

Entonces no lo entiendo. La red que propongo consta de dos módulos: un módulo de conversión de datos con varias capas de filtros y un módulo de clasificación. Los filtros del primer módulo se entrenan sin maestro en todo el historial una vez y se recuerdan para todas las aplicaciones posteriores de la red. Una vez entrenados los filtros, enseñamos el segundo módulo con el maestro, es decir, el patrón de precios en la entrada y las señales conocidas de Comprar (+1), Vender (-1), Mantener (0) en la salida. El segundo módulo puede ser cualquier red neuronal que conozcamos, por ejemplo la red Feed-Forward (FFN o MLP), la máquina de vectores de apoyo (SVM), la función de base radial (RBF). La curva de aprendizaje de este módulo es tan larga como sin el primer módulo de filtrado. Como he explicado antes, en mi opinión el segundo módulo no es tan importante como el primero. Primero debe transformar (filtrar) correctamente las cotizaciones antes de alimentarlas a la red. El método de filtrado más sencillo es МА. También se pueden aplicar otros indicadores, lo que ya hacen la mayoría de los operadores de redes neuronales. Propongo un "indicador" especial que consiste en varias capas de filtros similares a los filtros biológicos para tal transformación de las cotizaciones que los mismos patrones pero distorsionados son descritos por el mismo código en la salida de este "indicador" (el primer módulo de mi red). A continuación, es posible clasificar estos códigos en el segundo módulo utilizando métodos conocidos.

Si lo he entendido bien, los propios filtros y su formación pueden atribuirse al módulo de preprocesamiento.
 
Urain:
Si lo he entendido bien, los propios filtros y su formación pueden atribuirse al módulo de preprocesamiento.
Sí, el primer módulo, de autoaprendizaje una vez para toda la vida.
 
Urain:
Alex y ¿cómo has conseguido adjuntar el 14M, privilegio del moderador o han aumentado el límite?
Dice a 16M. Probablemente se haya incrementado.
 
Hurra, la conferencia 15 son las redes de lógica difusa de las que hablaba al principio.
 

u - entrada del activador

y - factor de potencia adicional.

//+------------------------------------------------------------------+
double sigma0(double u,double y=1.)// [0;1]
  {
   return(1./(1.+exp(-y*u)));
  }
//+------------------------------------------------------------------+
double sigma1(double u,double y=1.)// [-1;1] сдвинутый сигмоид
  {
   return((2./(1.+exp(-y*u)))-1.);
  }
//+------------------------------------------------------------------+
double func1(double u,double y=1.)// [-1;1]
  {
   return(y*u/sqrt(1.+y*y*u*u));
  }
//+------------------------------------------------------------------+
double func2(double u,double y=1.)// [-1;1]
  {
   return(sin(M_PI_2*y*u));
  }
//+------------------------------------------------------------------+
double func3(double u,double y=1.)// [-1;1]
  {
   return(2./M_PI*atan(y*u));
  }
//+------------------------------------------------------------------+
double func4(double u,double y=1.)// [-1;1]
  {
   return(y*u-y*y*y/3.*u*u*u);
  }
//+------------------------------------------------------------------+
double line0(double u,double y=1.)// [0;1] линейный активатор
  {
   double v=y*u;
   return((v>1.?1.:v<0.?0.:v));
  }
//+------------------------------------------------------------------+
double line1(double u,double y=1.)// [-1;1]
  {
   double v=y*u;
   return((v>1.?1.:v<-1.?-1.:v));
  }
//+------------------------------------------------------------------+
double Mline(double v)// [DBL_MIN;DBL_MAX]
  {
   return((v>DBL_MAX?DBL_MAX:v<DBL_MIN?DBL_MIN:v));
  }
//+------------------------------------------------------------------+
Razón de la queja: