Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1747

 
Mihail Marchukajtes:
¿Qué demonios es esto?

¿Qué fue todo eso?) Me alegro de que lo hayan traído de vuelta ))))

 
No tengo forma de entender el principio matemático de la NS.

Lo que yo entiendo:

1. Una muestra de entrenamiento: bloques aislados de datos que contienen representaciones modificadas de una invariante semántica.

2. Estructura de NS - montaje de capas sucesivas de "neuronas", donde la primera capa acepta datos (y tiene el número necesario de neuronas para esto), y otras capas están destinadas a la generalización de los datos procesados en la primera capa y llevarlos a la invariante, operado por la lógica del programa claro.

3. "Neurona" - una función que secuencialmente toma un fragmento de datos de muestra de entrenamiento, transforma este fragmento en "peso" y lo pasa a la siguiente capa.

No me queda claro cómo la invariante no evidente en los datos se despeja matemáticamente de la "cáscara" a través de varias capas de filtrado, corrigiendo no los datos en sí, sino su "peso".
 
Reg Konow:
Tengo problemas para entender el principio matemático de NS.

Lo que yo entiendo:

1. Muestreo de aprendizaje: bloques aislados de datos que contienen representaciones modificadas de una invariante semántica.

2. La estructura de NS es un conjunto de capas sucesivas de "neuronas", donde la primera capa acepta datos (y tiene el número necesario de neuronas para ello), y otras capas están destinadas a la generalización de los datos procesados en la primera capa y a llevarlos a la invariante, operada por una lógica de programa clara.

3. "Neurona" es una función que recibe secuencialmente un fragmento de datos de muestra de entrenamiento, transforma este fragmento en "peso" y lo transfiere a la siguiente capa.

No me queda claro cómo la invariante no evidente en los datos se despeja matemáticamente de la "cáscara" a través de varias capas de filtrado, corrigiendo no los datos en sí, sino sus "pesos".

Buscando la colina más alta en las nubes, la altitud no es visible detrás de las nubes. La baja frecuencia encuentra el comienzo de las elevaciones y encuesta cerca de ellas, donde no hay elevaciones no encuesta. Es posible hacer una prospección del comienzo de la zona alta y no hacer una prospección de las zonas pequeñas. Una especie de muestreo inteligente. Pero en cualquier caso es un algoritmo. En cualquier caso, la fuerza bruta completa con una probabilidad muy pequeña no perderá a las diferentes variantes, con cualquier lógica de búsqueda, a través y a través, en ambos extremos para empezar, la probabilidad de encontrar una búsqueda más rápida con la lógica de la búsqueda es mayor que en el secuencial completa.

 
Reg Konow:
No consigo entender el principio matemático de la NS.

No tratas de entenderlo, sino de inventarlo.

Para entender los fundamentos matemáticos de la NS hay que leer la teoría Kolmogorov - Arnold - Hecht-Nielson.

 
Aleksey Nikolayev:

No tratas de entenderlo, sino de inventarlo.

Para entender los fundamentos matemáticos de la NS hay que leer la teoría Kolmogorov - Arnold - Hecht-Nielson.

Rara vez se explica con claridad. Y poca gente es capaz de entenderlo a partir de fórmulas)))))

 
Aleksey Nikolayev:

No estás tratando de entenderlo, estás tratando de inventarlo...

Hasta cierto punto esto es necesario. Sólo se puede entender realmente algo que ha sido creado por uno mismo. Intento reproducir la idea original del concepto NS.
 

mediante retropropagación del error de definición invariante y búsqueda de un extremo local o global de la función neuronal por métodos de optimización newtonianos o cuasi-newtonianos, ajustando diferentes pasos de gradiente

Esto es más comprensible para Peter

 
Valeriy Yastremskiy:

Busca la colina más alta entre las nubes, no se ve ninguna elevación detrás de las nubes. Baja frecuencia encontrar el comienzo de la elevación y la encuesta cerca de ellos, donde no hay elevaciones no encuesta. Es posible hacer una prospección del comienzo de la zona alta y no hacer una prospección de las zonas pequeñas. Una especie de muestreo inteligente. Pero en cualquier caso es un algoritmo. En cualquier caso, la búsqueda completa con una probabilidad muy pequeña no perderá a diferentes variantes, con cualquier lógica de búsqueda, a través de y a través de, en ambos extremos para empezar, la probabilidad de encontrar una búsqueda más rápida en la búsqueda con la lógica de la deseada es mayor que en plena secuencial.

ahahah)))

 
Valeriy Yastremskiy:

Busca la colina más alta entre las nubes, no se ve ninguna elevación detrás de las nubes. Baja frecuencia encontrar el comienzo de la elevación y la encuesta cerca de ellos, donde no hay elevaciones no encuesta. Es posible hacer una prospección del comienzo de la zona alta y no hacer una prospección de las zonas pequeñas. Una especie de muestreo inteligente. Pero en cualquier caso es un algoritmo. En cualquier caso la búsqueda completa con una probabilidad muy pequeña no perderá diferentes opciones, con cualquier lógica de búsqueda, a través de y a través de, en ambos extremos para empezar, la probabilidad de encontrar una búsqueda más rápida en la búsqueda con la lógica de la deseada mayor que en un secuencial completa.

Esta explicación es más adecuada para GA, creo).
 
Maxim Dmitrievsky:

mediante retropropagación del error de definición invariante y búsqueda de un extremo local o global de la función neuronal por métodos de optimización newtonianos o cuasi-newtonianos, ajustando diferentes pasos de gradiente

Esto será más claro para Piotr

Entonces, ¿el trabajo de NS está ligado a la optimización de una u otra manera?
Razón de la queja: