Обсуждение статьи "Нейросети в трейдинге: Масштабируемые трансформеры со структурной декомпозицией признаков (Основные компоненты)"

 

Опубликована статья Нейросети в трейдинге: Масштабируемые трансформеры со структурной декомпозицией признаков (Основные компоненты):

Продолжаем разработку FAT: декомпозиция признаков по полям, отдельные проекции Query/Key/Value и параметрическое масштабирование внимания. Описаны OpenCL‑кернел многоголового внимания, свёрточный объект CNeuronFieldAwareConv и интеграция в CNeuronMHFAT с контролем памяти и градиентов. Читатель получает готовые компоненты для MQL5‑моделей, устойчивость к шуму и масштабируемость по числу полей и голов.

Реализация нейросетевой архитектуры в торговой платформе — это всегда баланс между теорией и практикой. С одной стороны, необходимо сохранить математическую целостность модели, с другой — обеспечить вычислительную эффективность, числовую устойчивость и корректную работу.

Работа над FAT — это попытка сформировать структурированную, масштабируемую и адаптивную основу для построения торговых моделей. В предыдущей статье мы реализовали модуль генерации модально-зависимых параметров CFieldAwareParams. Он отвечает за формирование весов с учётом структуры полей. Однако сами параметры — это лишь заготовка. Чтобы архитектура FAT начала работать как целостная система, необходим механизм, который применит эти параметры к данным, выполнит проекцию и встроит результат в общий вычислительный поток модели. Именно эту роль берёт на себя класс CNeuronFieldAwareConv.

Автор: Dmitriy Gizlyk