Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • Información
12+ años
experiencia
0
productos
0
versiones demo
134
trabajos
0
señales
0
suscriptores
Programación profesional de cualquier complejidad para MT4, MT5, C#.
Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 16): Uso práctico de la clusterización
Redes neuronales: así de sencillo (Parte 16): Uso práctico de la clusterización

En el artículo anterior, creamos una clase para la clusterización de datos. En este artículo, queremos compartir con el lector diferentes opciones de uso de los resultados obtenidos para resolver problemas prácticos en el trading.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 15): Clusterización de datos usando MQL5
Redes neuronales: así de sencillo (Parte 15): Clusterización de datos usando MQL5

Continuamos analizando el método de clusterización. En este artículo, crearemos una nueva clase CKmeans para implementar uno de los métodos de clusterización de k-medias más extendidos. Según los resultados de la prueba, el modelo ha podido identificar alrededor de 500 patrones.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 14): Clusterización de datos
Redes neuronales: así de sencillo (Parte 14): Clusterización de datos

Lo confieso: ha pasado más de un año desde que publiqué el último artículo. En tanto tiempo, me ha sido posible repensar mucho, desarrollar nuevos enfoques. Y en este nuevo artículo, me gustaría alejarme un poco del método anteriormente usado de aprendizaje supervisado, y sugerir una pequeña inmersión en los algoritmos de aprendizaje no supervisado. En particular, vamos a analizar uno de los algoritmos de clusterización, las k-medias.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 13): Normalización por lotes (Batch Normalization)
Redes neuronales: así de sencillo (Parte 13): Normalización por lotes (Batch Normalization)

En el artículo anterior, comenzamos a analizar varios métodos para mejorar la calidad del aprendizaje de la red neuronal. En este artículo, proponemos al lector continuar con este tema y analizar la normalización por lotes de los datos, un enfoque muy interesante.

Dmitriy Gizlyk
Ha dejado el comentario sobre el Cliente por el trabajo Доработка робота МТ5 на основе индикатора с открытым кодом
dma19
dma19 2021.06.11
hello dimitry. is it possible to submit a job request from you?
Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 12): Dropout
Redes neuronales: así de sencillo (Parte 12): Dropout

A la hora de proseguir el estudio de las redes neuronales, probablemente merezca la pena prestar un poco de atención a los métodos capaces de aumentar su convergencia durante el entrenamiento. Existen varios de estos métodos. En este artículo, proponemos al lector analizar uno de ellos: el Dropout (dilución).

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 11): Variaciones de GTP
Redes neuronales: así de sencillo (Parte 11): Variaciones de GTP

Hoy en día, quizás uno de los modelos de lenguaje de redes neuronales más avanzados sea GPT-3, que en su versión máxima contiene 175 mil millones de parámetros. Obviamente, no vamos a crear semejante monstruo en condiciones domésticas. Pero sí que podemos ver qué soluciones arquitectónicas se pueden usar en nuestro trabajo y qué ventajas nos ofrecerán.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 10): Multi-Head Attention (atención multi-cabeza)
Redes neuronales: así de sencillo (Parte 10): Multi-Head Attention (atención multi-cabeza)

Ya hemos hablado con anterioridad del mecanismo de auto-atención (self-attention) en las redes neuronales. En la práctica, en las arquitecturas de las redes neuronales modernas, se usan varios hilos de auto-atención paralelos para buscar diversas dependencias entre los elementos de la secuencia. Vamos a ver la implementación de este enfoque y evaluar su influencia en el rendimiento general de la red.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 9): Documentamos el trabajo realizado
Redes neuronales: así de sencillo (Parte 9): Documentamos el trabajo realizado

Ya hemos recorrido un largo camino y el código de nuestra biblioteca ha crecido de manera considerable. Resulta difícil monitorear todas las conexiones y dependencias. Y, obviamente, antes de proseguir con el desarrollo del proyecto, necesitaremos documentar el trabajo ya realizado y actualizar la documentación en cada paso posterior. Una documentación debidamente redactada nos ayudará a ver la integridad de nuestro trabajo.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 8): Mecanismos de atención
Redes neuronales: así de sencillo (Parte 8): Mecanismos de atención

En artículos anteriores, ya hemos puesto a prueba diferentes variantes para organizar las redes neuronales, incluyendo las redes convolucionales, adoptadas de algoritmos de procesamiento de imágenes. En el presente artículo, les proponemos analizar los mecanismos de atención, cuya aparición impulsó el desarrollo de los modelos de lenguaje.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 7): Métodos de optimización adaptativos
Redes neuronales: así de sencillo (Parte 7): Métodos de optimización adaptativos

En artículos anteriores, hemos usado el descenso de gradiente estocástico para entrenar una red neuronal utilizando una única tasa de aprendizaje para todas las neuronas de la red. En este artículo, proponemos al lector buscar métodos de aprendizaje adaptativo que nos permitan modificar la tasa de aprendizaje de cada neurona. Vamos a echar un vistazo a las ventajas y desventajas de este enfoque.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 6): Experimentos con la tasa de aprendizaje de la red neuronal
Redes neuronales: así de sencillo (Parte 6): Experimentos con la tasa de aprendizaje de la red neuronal

Ya hemos hablado sobre algunos tipos de redes neuronales y su implementación. En todos los casos, hemos usado el método de descenso de gradiente para entrenar las redes neuronales, lo cual implica la elección de una tasa de aprendizaje. En este artículo, queremos mostrar con ejemplos lo importante que resulta elegir correctamente la tasa de aprendizaje, y también su impacto en el entrenamiento de una red neuronal.

Dmitriy Gizlyk
Ha dejado el comentario sobre el Cliente por el trabajo Переделать существующий индикатор
Dmitriy Gizlyk
Ha dejado el comentario sobre el Cliente por el trabajo Develop EA of a modified version of London Breakout Strategy
Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 5): Cálculos multihilo en OpenCL
Redes neuronales: así de sencillo (Parte 5): Cálculos multihilo en OpenCL

Ya hemos analizado algunos tipos de implementación de redes neuronales. Podemos ver con facilidad que se repiten las mismas operaciones para cada neurona de la red. Y aquí sentimos el legítimo deseo de aprovechar las posibilidades que ofrece la computación multihilo de la tecnología moderna para acelerar el proceso de aprendizaje de una red neuronal. En el presente artículo, analizaremos una de las opciones para tal implementación.

lam shoul
lam shoul 2022.07.20
Hi
Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 4): Redes recurrentes
Redes neuronales: así de sencillo (Parte 4): Redes recurrentes

Continuamos nuestra inmersión en el mundo de las redes neuronales. En el presente artículo, hablaremos de las redes neuronales recurrentes. Este tipo de redes neuronales se ofrece para su utilización con series temporales, que son precisamente los gráficos de precios en la plataforma comercial MetaTrader 5.

java2python
java2python 2022.07.04
good
Dmitriy Gizlyk
Ha dejado el comentario sobre el Cliente por el trabajo A Price Box Indicator based on 2-Days Time Frame
Dmitriy Gizlyk
Ha dejado el comentario sobre el Cliente por el trabajo Сконвертировать советник из mql4 в mql5
Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 3): Redes convolucionales
Redes neuronales: así de sencillo (Parte 3): Redes convolucionales

Continuando el tema de la redes neuronales, proponemos al lector analizar las redes neuronales convolucionales. Este tipo de redes neuronales ha sido desarrollado para buscar objetos en una imagen. Asimismo, analizaremos cómo nos pueden ayudar al operar en los mercados financieros.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales: así de sencillo (Parte 2): Entrenamiento y prueba de la red
Redes neuronales: así de sencillo (Parte 2): Entrenamiento y prueba de la red

En el presente artículo, proseguiremos nuestro estudio de las redes neuronales, iniciado en el artículo anterior, y analizaremos un ejemplo de uso en los asesores de la clase CNet que hemos creado. Asimismo, analizaremos dos modelos de red neuronal que han mostrado resultados semejantes tanto en su tiempo de entrenamiento, como en la precisión de sus predicciones.