Redes neuronales, cómo dominarlas, por dónde empezar - página 11

 
Integer >> :

Si te dedicaras a los gráficos y la animación en 3D, ¿escribirías tu propio 3DStudioMAX?

Son cosas diferentes...


Te he dado un ejemplo concreto... prueba a cambiar la función de error en tu programa de red neuronal favorito...


En términos suaves se quiere decir que 2DMAX es igual a Neuroshell en términos de funciones y tamaño de código ????

Bueno, bueno...

 
Solver.it писал(а) >> Prueba a cambiar la función de error en tu programa de red neuronal favorito...
¿Y no permite la siguiente idea - para obtener un beneficio con este programa, no es necesario cambiar esta función de error en él?
 
LeoV писал(а) >>
¿Y no permite la siguiente idea - para obtener un beneficio con este programa, no es necesario modificar esta función de error en él?

Gracias a esta graciosa declaración tuya, ahora sabemos que no tienes ningún o ningún concepto de optimización en tus parientes de los mejores expertos de NS.
Y usted, a su vez, no permite la siguiente idea: que usted vive en un país algo diferente al nuestro,
y, por lo tanto, ¿no se supone que se dispone de un software para optimizar plenamente la creación y el uso de NN?

 
Korey писал(а) >>

Gracias a esta graciosa declaración tuya, ahora sabemos que no tienes ni un solo concepto de optimización en tus parientes de los mejores de NS.

:-)

 
Korey писал(а) >>

¿Has entendido lo que has escrito? )))

 

¡No importa cómo se retuerza la NS, lo que sea que se le dé a las entradas, no hay milagros, por supuesto!

Así que, lo que resulta: Por un lado, cuanto más capas de NS, mayor es su poder de predicción, pero no tiene sentido construir más de tres capas - la red de tres capas ya es un aproximador universal. Por otro lado, lo único que hace la caja negra llamada NS es encontrar y explotar procesos cuasi estacionarios en el mercado. No hay otra forma de hacerlo. Exactamente, cuasi-estacionario, no estacionario en absoluto (simplemente no hay tales procesos en el mercado) y no no estacionario (tales procesos no pueden en principio ser explotados). Más arriba he dado un enlace para derivar la relación óptima entre el número de sinapsis NS - w, la dimensión de su entrada - d y la longitud óptima de la muestra de entrenamiento P (4 o 5 páginas del tema): w^2=P*d

Por lo tanto, cuanto mayor sea la complejidad del NS, mayor deberá ser la longitud de la muestra de entrenamiento. No sólo la complejidad del entrenamiento aumenta como P^3, sino que los datos pueden ser insuficientes. Pero la mayor trampa está donde no se espera: los procesos cuasi-estacionarios (los que nuestra NS identifica en la cotierra y luego explota) tienen una vida característica (en absoluto, diferente de cero y menor que algunos). Está claro que en una muestra de entrenamiento grande, hay una mayor probabilidad de cambio del proceso seleccionado... ¿ves? Cuanto más corta sea la muestra de entrenamiento, mejor: ¡menos posibilidades de verse perjudicado por un cambio en el sentimiento del mercado! Aquí, parece que la respuesta a la pregunta "¿Qué es mejor: una NS de 2 capas con una muestra de entrenamiento corta, o una poderosa de 3 con tres universidades detrás (mientras se aprende, todo se volvió innecesario)?", la dará un simple experimento.

Para ello, lancé tres cuadrículas - 1,2 y 3 en Mathcad, y comparé los resultados de la predicción de un signo de los incrementos de kotier con una cuenta por delante (reuní las estadísticas de 100 experimentos independientes). Los resultados son los siguientes:

1 - p=10% de signos acertados (probabilidad=1/2+p).

2 - 15-16%

3 - 12%

Aquí hay algunos parámetros libres: dimensión de la entrada y número de neuronas en la(s) capa(s). El primer parámetro era el mismo para todas las arquitecturas, el segundo se elegía personalmente. Vemos que la rejilla NS de 3 capas no es la panacea, y tal vez para nosotros como comerciantes, la mejor opción para la unidad analítica MTS es una rejilla de dos capas - desde el punto de vista de la máxima precisión de previsión y los requisitos mínimos para la complejidad de la formación (poder de RS, gran historia y su no crecimiento).

 
Neutron писал(а) >>

¡No importa cómo se retuerza la NS, lo que sea que se le dé a las entradas, no hay milagros, por supuesto!

Así que, lo que resulta: Por un lado, cuanto más capas de NS, mayor es su poder de predicción, pero no tiene sentido construir más de tres capas - la red de tres capas ya es un aproximador universal. Por otro lado, lo único que hace la caja negra llamada NS es encontrar y explotar procesos cuasi estacionarios en el mercado. No hay otra forma de hacerlo. Exactamente, cuasi-estacionario, no estacionario en absoluto (simplemente no hay tales procesos en el mercado) y no no estacionario (tales procesos no pueden en principio ser explotados). Más arriba he dado un enlace para derivar la relación óptima entre el número de sinapsis NS - w, la dimensión de su entrada - d y la longitud óptima de la muestra de entrenamiento P (4 o 5 páginas del tema): w^2=P*d

Por lo tanto, cuanto mayor sea la complejidad del NS, mayor será la longitud de la muestra de entrenamiento que debe utilizarse para su formación. No sólo la complejidad del entrenamiento aumenta como P^3, sino que los datos pueden ser insuficientes. Pero la mayor trampa está donde no se espera: los procesos cuasi-estacionarios (los que nuestra NS identifica en la cotierra y luego explota) tienen una vida característica (en absoluto, diferente de cero y menor que algunos). Es evidente que en una muestra de entrenamiento grande, hay una mayor probabilidad de cambio del proceso seleccionado... ¿ves? Cuanto más corta sea la muestra de entrenamiento, mejor: ¡menos posibilidades de verse perjudicado por un cambio en el sentimiento del mercado! Aquí, parece que la respuesta a la pregunta "¿Qué es mejor: una NS de 2 capas con una muestra de entrenamiento corta, o una poderosa de 3 con tres universidades detrás (mientras se aprende, todo se volvió innecesario)?", la dará un simple experimento.

Para ello, lancé tres cuadrículas - 1,2 y 3 en Mathcad, y comparé los resultados de la predicción de un signo de los incrementos de kotier con una cuenta por delante (reuní las estadísticas de 100 experimentos independientes). Los resultados son los siguientes:

1 - p=10% de signos acertados (probabilidad=1/2+p).

2 - 15-16%

3 - 12%

Aquí hay algunos parámetros libres: dimensión de la entrada y número de neuronas en la(s) capa(s). El primer parámetro era el mismo para todas las arquitecturas, el segundo se elegía personalmente. Está claro que la rejilla NS de 3 capas no es la panacea, y quizás para nosotros, como operadores, la mejor opción para la unidad analítica MTS sea una rejilla de dos capas, desde el punto de vista de la máxima precisión de las previsiones y de los requisitos mínimos de complejidad de la formación (potencia de la RS, gran historial y su no crecimiento).

Me pregunto si alguien ha intentado utilizar NS para la predicción de números de lotería.

 

gpwr, ¡te estás burlando de todos! - se trata de predecir el número de la lotería. Y por favor, elimine la cita de mi post - añadirá aún más localismo a su post :-)

 
Neutron писал(а) >>

Ya di arriba un enlace a la conclusión de la relación óptima entre el número de sinapsis NS - w, su dimensión de entrada - d y la longitud óptima de la muestra de entrenamiento P (4 o 5 páginas del tema): w^2=P*d

El tamaño de la red, el aprendizaje y la capacidad de reconocimiento dependen en gran medida de la arquitectura de la red. ¿A cuál te refieres? ¿Palabra, recurrencia, VNS o quizás MSUA?
 
Estamos hablando de un clásico perseptrón multicapa, no lineal y de una sola salida (compra-venta).
Razón de la queja: