Redes neuronales, cómo dominarlas, por dónde empezar - página 6

 
nord >> :

>> ...pero Better obtuvo muy buenos resultados, por lo que algo se puede sobrevivir usándolo correctamente.

A juzgar por los resultados del CHAMPI 2008, en el que el Sr. Better y otros participantes del CHAMPI utilizaron NS, ¿qué lugares ocuparon sus asesores?

Como hemos visto en 2008, los líderes del campeonato son asesores de todo tipo, ¡pero no los que tienen NS!

esto nos lleva a otra pregunta: ¿no fue un accidente el disparo del Sr. Better`s en 2007?

 
El NS en el TS es un ajuste con la redundancia,
pero incluso la redundancia de la red neural puede no ser suficiente para obtener beneficios.
 
TheXpert писал(а) >>

Mentira.

En muchos problemas, el Perspectron de 4 capas muestra resultados y convergencia mucho mejores.

Y en algunos lugares se utiliza uno de 5 capas. Su capa oculta intermedia captura datos intermedios para un análisis adicional.

Por cierto, en este sentido, las redes de recirculación desplegadas no son más que un perseptrón. Y un RNS no lineal desplegado es sólo un perseptrón de 5 capas.

Por el momento, guardaré silencio sobre las redes complejas (con múltiples capas de salida y enlaces complejos) basadas en un perseptrón.

Es algo complicado.

Sé que no hace mucho tiempo se demostraron dos teoremas. De acuerdo con la primera, el NS no lineal de tres capas (que consta de tres capas de neuronas, con no linealidad en la salida de cada una) es un aproximador universal y el aumento del número de capas no aumenta la potencia de la red. Según el segundo teorema, la potencia de cálculo de la red no depende del tipo específico de no linealidad en las salidas de sus neuronas. Es importante que en principio haya no linealidad y no importa cuál sea exactamente: sigmoide o arctangente. Esto nos ahorra tratar de encontrar lo mejor de lo igual.

Estos dos teoremas nos simplifican radicalmente la elección de la arquitectura NS y reducen notablemente la cantidad de trabajo de investigación posible.

Además, demostramos una relación inequívoca entre la longitud óptima de la muestra de entrenamiento sobre datos históricos, la dimensionalidad de la entrada de la NS y el número total de sus sinapsis, en el sentido de minimizar el error de predicción sobre datos que no participaron en el entrenamiento de la red. Esto permite no incurrir en el leninismo seleccionando manualmente este óptimo. Con las capacidades actuales de la EM, se ahorra mucho tiempo y fuerzas.

 
Andrey4-min >> :

Estimados miembros del foro, el tema de este hilo es Redes Neuronales, ¿cómo dominarlas, por dónde empezar?

Acerquémonos al tema....

¿Más cerca del tema? No hay problema. Empieza escribiendo una neurona, y luego combínalas en una red. Y el software avanzado es para después. Todos los demás consejos son basura.

 
Korey >> :
El NS en el TS es un accesorio con exceso de...

cualquier aparato de matriz en tc es un accesorio,

Tomemos como ejemplo la antigua forma de ajuste: el suavizado exponencial de dos parámetros, que no es en absoluto peor que la IA y la NS.

 
PraVedNiK писал(а) >>

Alisamiento exponencial de dos parámetros, NO peor que AI y NS.

Así es: el suavizado exponencial biparamétrico NO es peor que el NS de doble entrada.

Por otro lado, en la NS real somos libres de elegir la dimensionalidad de la entrada. Para los BP del tipo de precio, la dimensionalidad típica se sitúa en el área de 10-100. Aquí será difícil construir una mueva con tal número de parámetros y ciertamente será imposible optimizarlos en un tiempo razonable. Para ello, NS utiliza el método de retropropagación de errores, que es mucho más rápido que el algoritmo genético en el probador, y más aún que la búsqueda estúpida de parámetros.

 
trabajar con el NS en el TC me da escalofríos - no tengo que pensar, no hay necesidad de hacerlo,
es decir, todas las preocupaciones son como para las chicas: qué cobrar, cuándo alimentar, qué comparar con qué = una especie de sinecura,
Me he decidido, lo he probado y me he metido las manos en los pantalones (para jugar con las bolas)), a la espera de los resultados.
el ordenador funciona - trader rests)))) nada personal.
 
No, si tienes la suficiente asiduidad y conocimiento para ajustar un marco teórico a la regularidad encontrada en el kotir, entonces, por favor, ¡explótalo en tu beneficio! Pero, ¿cuánto durará esta pauta? No son leyes de la mecánica, que son eternas. Mañana la tendencia del mercado cambiará y tendrás que coger un papel y contar... Que lo haga el TS con NS. Estúpido, pero férreo.
 
Neutron >> :

...

utiliza el método de propagación hacia atrás, que es notablemente más rápido que el algoritmo genético en el probador, y mucho menos la enumeración de parámetros tontos.

El método de retropropagación NO da ninguna garantía para encontrar el mínimo global de la función de error, y como para 10-100 entradas

en la entrada de la red... En realidad, nadie ha anulado todavía la reducción de la red; dos entradas serán suficientes, si se analizan previamente los componentes principales, pero el problema es que este análisis, al igual que el entrenamiento, se hace también sobre el historial.

 
Bueno, no seas tan duro contigo mismo. Al fin y al cabo, la red se reentrena a veces (y lo hago en cada BP analizado) y el método de la media encuentra un mínimo. En cuanto a la reducción de la dimensionalidad, no funciona para los BPs como el de los precios en la medida que usted presenta, desafortunadamente.
Razón de la queja: