Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • Informazioni
11+ anni
esperienza
0
prodotti
0
versioni demo
134
lavori
0
segnali
0
iscritti
Professional programming of any complexity for MT4, MT5, C#.
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Мультиагентная адаптивная модель (Окончание)
Нейросети в трейдинге: Мультиагентная адаптивная модель (Окончание)

В предыдущей статье мы познакомились с мультиагентным адаптивным фреймворком MASA, который объединяет подходы обучения с подкреплением и адаптивные стратегии, обеспечивая гармоничный баланс между доходностью и рисками в турбулентных рыночных условиях. Нами был построен функционал отдельных агентов данного фреймворка, и в этой статье мы продолжим начатую работу, доведя её до логического завершения.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Мультиагентная адаптивная модель (MASA)
Нейросети в трейдинге: Мультиагентная адаптивная модель (MASA)

Предлагаю познакомиться с мультиагентным адаптивным фреймворком MASA, который объединяет обучение с подкреплением и адаптивные стратегии, обеспечивая гармоничный баланс между доходностью и управлением рисками в турбулентных рыночных условиях.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Параметроэффективный Transformer с сегментированным вниманием (Окончание)
Нейросети в трейдинге: Параметроэффективный Transformer с сегментированным вниманием (Окончание)

В предыдущей работе мы рассмотрели теоретические аспекты фреймворка PSformer, который включает две основные инновации в архитектуру классического Transformer: механизм совместного использования параметров (Parameter Shared — PS) и внимание к пространственно-временным сегментам (SegAtt). И в данной статье мы продолжаем начатую работу по реализации предложенных подходов средствами MQL5.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Параметроэффективный Transformer с сегментированным вниманием (PSformer)
Нейросети в трейдинге: Параметроэффективный Transformer с сегментированным вниманием (PSformer)

Предлагаем познакомиться с новым фреймворком PSformer, который адаптирует архитектуру ванильного Transformer для решения задач прогнозирования многомерных временных рядов. В основе фреймворка лежат две ключевые инновации: механизм совместного использования параметров (PS) и внимание к пространственно-временным сегментам (SegAtt).

1
youwei_qing
youwei_qing 2025.04.21
I noticed that the feedForward method with the second input parameter isn't working at all. Could this be an issue? virtual bool feedForward(CNeuronBaseOCL *NeuronOCL); virtual bool feedForward(CNeuronBaseOCL *NeuronOCL, CBufferFloat *SecondInput) { return feedForward(NeuronOCL); }
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Повышение эффективности Transformer путем снижения резкости (Окончание)
Нейросети в трейдинге: Повышение эффективности Transformer путем снижения резкости (Окончание)

SAMformer предлагает решение ключевых проблем Transformer в долгосрочном прогнозировании временных рядов, включая сложность обучения и слабое обобщение на малых выборках. Его неглубокая архитектура и оптимизация с учетом резкости обеспечивают избегание плохих локальных минимумов. В данной статье мы продолжим реализацию подходов с использованием MQL5 и оценим их практическую ценность.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Повышение эффективности Transformer путем снижения резкости (SAMformer)
Нейросети в трейдинге: Повышение эффективности Transformer путем снижения резкости (SAMformer)

Обучение моделей Transformer требует больших объемов данных и часто затруднено из-за слабой способности моделей к обобщению на малых выборках. Фреймворк SAMformer помогает решить эту проблему, избегая плохих локальных минимумов. И повышает эффективность моделей даже на ограниченных обучающих выборках.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Оптимизация Transformer для прогнозирования временных рядов (LSEAttention)
Нейросети в трейдинге: Оптимизация Transformer для прогнозирования временных рядов (LSEAttention)

Фреймворк LSEAttention предлагает пути совершенствования архитектуры Transformer, и был разработан специально для долгосрочного прогнозирования многомерных временных рядов. Предложенные авторами метода подходы позволяют решить проблемы энтропийного коллапса и нестабильности обучения, характерные для ванильного Transformer.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Гиперболическая модель латентной диффузии (Окончание)
Нейросети в трейдинге: Гиперболическая модель латентной диффузии (Окончание)

Применение анизотропных диффузионных процессов для кодирования исходных данных в гиперболическом латентном пространстве, как это предложено в фреймворке HypDIff, способствует сохранению топологических особенностей текущей рыночной ситуации, и повышает качество её анализа. В предыдущей статье мы начали реализацию предложенных подходов средствами MQL5. И сегодня продолжим начатую работу, доведя ее до логического завершения.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Гиперболическая модель латентной диффузии (HypDiff)
Нейросети в трейдинге: Гиперболическая модель латентной диффузии (HypDiff)

Статья рассматривает способы кодирования исходных данных в гиперболическом латентном пространстве через анизотропные диффузионные процессы. Это помогает точнее сохранять топологические характеристики текущей рыночной ситуации и повышает качество ее анализа.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Модели направленной диффузии (DDM)
Нейросети в трейдинге: Модели направленной диффузии (DDM)

Предлагаем познакомиться с моделями направленной диффузии, которые используют анизотропные и направленные шумы, зависящие от данных, в процессе прямой диффузии для захвата значимых графовых представлений.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Адаптивное представление графов (NAFS)
Нейросети в трейдинге: Адаптивное представление графов (NAFS)

Предлагаем познакомиться с методом NAFS (Node-Adaptive Feature Smoothing) — это непараметрический подход к созданию представлений узлов, который не требует обучения параметров. NAFS извлекает характеристики каждого узла, учитывая его соседей, и затем адаптивно комбинирует эти характеристики для формирования конечного представления.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Контрастный Трансформер паттернов (Окончание)
Нейросети в трейдинге: Контрастный Трансформер паттернов (Окончание)

В последней статье нашей серии мы рассмотрели фреймворк Atom-Motif Contrastive Transformer (AMCT), который использует контрастное обучение для выявления ключевых паттернов на всех уровнях — от базовых элементов до сложных структур. В этой статье мы продолжаем реализацию подходов AMCT средствами MQL5.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Контрастный Трансформер паттернов
Нейросети в трейдинге: Контрастный Трансформер паттернов

Контрастный Transformer паттернов осуществляет анализ рыночных ситуаций, как на уровне отдельных свечей, так и целых паттернов. Что способствует повышению качества моделирования рыночных тенденций. А применение контрастного обучения для согласования представлений свечей и паттернов ведет к саморегуляции и повышению точности прогнозов.

1
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Анализ рыночной ситуации с использованием Трансформера паттернов
Нейросети в трейдинге: Анализ рыночной ситуации с использованием Трансформера паттернов

В анализе рыночной ситуации нашими моделями ключевым элементом является свеча. Тем не менее давно известно, что свечные паттерны могут помочь в прогнозировании будущих ценовых движений. И в этой статье мы познакомимся с методом, который позволяет интегрировать оба этих подхода.

3
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Transformer с относительным кодированием
Нейросети в трейдинге: Transformer с относительным кодированием

Самоконтролируемое обучение может оказаться эффективным способом анализа больших объемов неразмеченных данных. Основным фактором успеха является адаптация моделей под особенности финансовых рынков, что способствует улучшению результативности традиционных методов. Эта статья познакомит вас с альтернативным механизмом внимания, который позволяет учитывать относительные зависимости и взаимосвязи между исходными данными.

3
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Управляемая сегментация (Окончание)
Нейросети в трейдинге: Управляемая сегментация (Окончание)

Продолжаем, начатую в предыдущей статье работу, по построению фреймворка RefMask3D средствами MQL5. Данный фреймворк разработан для всестороннего изучения мультимодального взаимодействия и анализа признаков в облаке точек, с последующей идентификацией целевого объекта на основе описания, предоставленного на естественном языке.

4
Dmitriy Gizlyk
Articolo pubblicato Нейросети в трейдинге: Управляемая сегментация
Нейросети в трейдинге: Управляемая сегментация

Предлагаем познакомиться с методом комплексного мультимодального анализа взаимодействия и понимания признаков.

3
Dmitriy Gizlyk
Articolo pubblicato Neural Networks in Trading: Generalized 3D Referring Expression Segmentation
Neural Networks in Trading: Generalized 3D Referring Expression Segmentation

While analyzing the market situation, we divide it into separate segments, identifying key trends. However, traditional analysis methods often focus on one aspect and thus limit the proper perception. In this article, we will learn about a method that enables the selection of multiple objects to ensure a more comprehensive and multi-layered understanding of the situation.

2
Dmitriy Gizlyk
Articolo pubblicato Neural Networks in Trading: Mask-Attention-Free Approach to Price Movement Forecasting
Neural Networks in Trading: Mask-Attention-Free Approach to Price Movement Forecasting

In this article, we will discuss the Mask-Attention-Free Transformer (MAFT) method and its application in the field of trading. Unlike traditional Transformers that require data masking when processing sequences, MAFT optimizes the attention process by eliminating the need for masking, significantly improving computational efficiency.

2
Dmitriy Gizlyk
Articolo pubblicato Neural Networks in Trading: Superpoint Transformer (SPFormer)
Neural Networks in Trading: Superpoint Transformer (SPFormer)

In this article, we introduce a method for segmenting 3D objects based on Superpoint Transformer (SPFormer), which eliminates the need for intermediate data aggregation. This speeds up the segmentation process and improves the performance of the model.

2