¿Cómo se trabaja con las redes neuronales? - página 4

 
¡Muchas gracias como ser humano!
 
alexjou:

- El número de capas viene determinado por la dimensionalidad del vector de entrada, es decir, la red se genera automáticamente definiendo e inicializando/leyendo matrices de trabajo;

- el número de neuronas de una capa oculta disminuye progresivamente con el aumento del número de capas N según la ley 1/(2^N) ("resolver cristales") o 1/N ("recordar cristales");


Parece demostrado que tres capas son suficientes para aproximar cualquier función. Parece asumir que hay más de ellos. ¿Por qué consideraciones?


En general, la concepción es muy cercana a mis pensamientos, aunque en términos de conocimiento de la NS probablemente estoy en una etapa considerablemente anterior. Sería interesante comunicarse. ¿Puede darme su dirección de correo electrónico? O escríbeme a likh on yandex ru.

 
El problema aquí es ligeramente diferente.

No se trata de la aproximación de funciones. No sé nada de la prueba que mencionas (ya que nunca he necesitado trabajar con redes proyectivas), pero consideraciones generales sugieren que en la aproximación de funciones arbitrarias el tipo de funciones básicas y la dimensión de la base juegan un papel mucho más importante, que la "estratificación" de la red; sin embargo, esto es cierto para los métodos proyectivos en general.

Elegí la configuración anterior de la red también por algunas pistas: probablemente, así es como está construido el cerebro de los seres vivos y así es como "aprende" memorizando y clasificando adaptativamente la información de entrada. (Molesté a mis compañeros biólogos y médicos casi hasta la muerte con mis estúpidas preguntas, pero no pudieron decir nada definitivo excepto "para qué lo necesitas" y "córtalo y pruébalo tú mismo"). De ahí la elección de la regla de Oia para ajustar las escalas: en este caso no se puede decir con seguridad si se está "aprendiendo con un profesor" o "sin un profesor" (por alguna razón, siempre me ha parecido que esa división de nociones es excesivamente artificial). Curiosamente, a partir de un determinado momento del ajuste de las escalas, una red de este tipo deja de ser predecible, es decir, empieza a "comportarse", aunque hasta ahora sólo estamos hablando de un "cristal" de este tipo.

En resumen, la red, junto con el método de ajuste de sus escalas, se construyó casi por completo a partir de consideraciones heurísticas. Después de todo, en el intercambio, que todos estamos tratando de derrotar, tales consideraciones, muy probablemente, juegan lejos del último papel. Correo electrónico: alex-jou Hund rambler Punkt ru (sólo una petición muy grande - no lo agregue a su lista de contactos para evitar el spam. En general, y pido a todos que lo hagan, la utilidad de este servicio es casi nula y el daño es tremendo).
 
Candid:

Parece demostrado que tres capas son suficientes para aproximar cualquier función. Parece asumir que hay más de ellos. ¿Por qué consideraciones?

Esta prueba no incluye la sigmoidea que menciona. Por lo tanto, sólo es teóricamente posible aproximar cualquier función continua mediante un perceptrón de tres capas. En el ámbito aplicado, por desgracia, los resultados son mucho peores.
 
¿Alguien sabe algo sobre el paquete PolyAnalyst de ?
 
sayfuji:
Mi pregunta es la siguiente. Cómo se trabaja con las redes neuronales: se implementa utilizando sólo medios mql4 (la misma Inteligencia Artificial), o se utilizan programas como MatLab o paquetes especiales de neuro (Neuro Shell Day Trader, NeuroSolutions, etc.), adjuntando una dll al código del EA. ¿Cuál es su enfoque y cuáles son sus ventajas sobre los demás (aparte de la rentabilidad)?

Cada enfoque tiene sus ventajas y desventajas:

1. Cuando desarrollas tu propia red neuronal, no estás tratando con una caja negra, a no ser, por supuesto, que sólo hayas cogido el código fuente y lo hayas compilado, pero en algún lugar has añadido algo específico a la tarea.

2. Cuando compras una parrilla propietaria, obtienes: una caja negra por el dinero, pero junto con ella: soporte, soluciones preparadas y blanqueadores de entrada propietarios.


En pocas palabras, si, por ejemplo, se adquiere un paquete de predicción de series temporales universal, el usuario no tiene que pensar en lo que se introduce en las entradas. Porque en el paquete, las entradas son las series temporales tal cual. Y en el propio paquete, se prepara de forma preliminar para alimentar las entradas de la red, es decir, antes de que la red se ponga en marcha para el entrenamiento, tendrá lugar el blanqueo:

1. Filtrar y suavizar los datos de entrada para hacerlos más predecibles y menos ruidosos

2. Normalización de

3. Filtrado y eliminación de las entradas menos significativas

4. Eliminación de las correlaciones entre los insumos

5. Eliminación de la linealidad de los datos de entrada

6. Selección de los sigmoides adecuados para los datos normalizados

Y así sucesivamente.


Después, se entrena la red. A continuación, se recuperan los datos de salida. Por ejemplo, si se eliminó la linealidad en las entradas, el paquete la restaurará en las salidas. La mierda en las entradas se convierte en dulce en las salidas. Es muy posible, ya que se trata de una caja negra, que en lugar de una red neuronal el paquete utilice un algoritmo genético o quizás algún método de regresión u otro de extrapolación.

-+++------------------------------------------------------------------------------------------------------------------------------------------+++-

- Así que para aquellos usuarios que van a incursionar en las redes neuronales pero no entienden el término "normalización", es mejor conseguir un paquete universal para pronosticar series de tiempo donde lo máximo que se puede pedir además de la serie de tiempo (comillas) es el tamaño del lag.

- Los usuarios más avanzados que conozcan las peculiaridades de las arquitecturas de las redes neuronales, es decir, que hayan estudiado las ventajas y desventajas, deberán comprar paquetes más especializados. Este tipo de paquetes no son adecuados para los aficionados, ya que hay que encontrar la arquitectura adecuada para la tarea en cuestión por uno mismo. Y el método "científico" de añadir cosas a las entradas no es bueno aquí porque las salidas probablemente también estarán llenas de basura.

- Todo lo demás, es decir, las redes que se ensamblan a partir de fuentes no autorizadas o escritas desde cero, es adecuado sólo para aquellos que tienen experiencia real en la preparación de los datos de entrada antes de entrenar la red y la recuperación de los datos en las salidas después del entrenamiento.

El principio de selección de paquetes de redes neuronales es obscenamente sencillo: si no puedes cagar, no te tortures el ano. Si has comprado un paquete chulo y tienes preguntas sobre su uso que no eres capaz de responder por ti mismo con la ayuda de los manuales incluidos, sólo significa una cosa: no andes así, es decir, compra algo menos chulo para gente más "tonta".

 

El problema con las redes neuronales es el mismo que con otras CT que no utilizan redes neuronales - una red neuronal siempre encontrará un patrón en cualquier intervalo de tiempo (entrenamiento u optimización), entonces hay la misma pregunta - ¿funcionará este patrón (traerá beneficios) en el futuro?

 

Reshetov:

La mierda en las entradas se convierte en caramelo en las salidas.

Nunca.

Es muy posible, ya que se trata de una caja negra, que en lugar de una red neuronal en un paquete propietario se utilice un algoritmo genético, o quizás alguna regresión o algún otro método de extrapolación.

¿Cómo se relaciona la AG con la NS y la regresión?

NS es un método.

La AG es un método.

"Usar GA en lugar de NS" suena a locura. Es como "sustituir el corazón por un analizador de gases de escape".

Lo siento.

 
LeoV:

....... Entonces surge la misma pregunta: ¿funcionará (dará beneficios) este patrón encontrado en el futuro?

Supongamos, de forma puramente hipotética, que se encuentra, o ya se ha encontrado, una forma de responder a esta pregunta: "No". Además, para cualquier TC. ¿Qué conclusión se puede sacar de esto?

¿Los comerciantes dejarán de operar? Sólo por curiosidad.

ZS. ¿Comprarán los comerciantes información fiable que confirme que la respuesta es "No"? ¿O prefieren no saber la respuesta a esa pregunta? (retórica, en todo caso)

 
joo:

Supongamos, de forma puramente hipotética, que se encontrará, o se ha encontrado, una forma de responder a esta pregunta: "No". Además, para cualquier TC. ¿Qué conclusión sacarías de esto?

¿Los comerciantes dejarán de operar? Sólo por curiosidad.

ZS. ¿Comprarán los comerciantes información fiable que confirme que la respuesta es "No"? ¿O prefieren no saber la respuesta a esa pregunta? (retórica, en todo caso).

Puro escolasticismo, en todo caso.
Razón de la queja: