Dmitriy Gizlyk
Dmitriy Gizlyk
  • 情報
12+ 年
経験
0
製品
0
デモバージョン
134
ジョブ
0
シグナル
0
購読者
Professional programming of any complexity for MT4, MT5, C#.
Dmitriy Gizlyk
パブリッシュされた記事Neural Networks in Trading: A Multi-Agent System with Conceptual Reinforcement (Final Part)
Neural Networks in Trading: A Multi-Agent System with Conceptual Reinforcement (Final Part)

We continue to implement the approaches proposed by the authors of the FinCon framework. FinCon is a multi-agent system based on Large Language Models (LLMs). Today, we will implement the necessary modules and conduct comprehensive testing of the model on real historical data.

1
Dmitriy Gizlyk
パブリッシュされた記事Neural Networks in Trading: A Multi-Agent System with Conceptual Reinforcement (FinCon)
Neural Networks in Trading: A Multi-Agent System with Conceptual Reinforcement (FinCon)

We invite you to explore the FinCon framework, which is a a Large Language Model (LLM)-based multi-agent system. The framework uses conceptual verbal reinforcement to improve decision making and risk management, enabling effective performance on a variety of financial tasks.

Dmitriy Gizlyk
パブリッシュされた記事Neural Networks in Trading: A Multimodal, Tool-Augmented Agent for Financial Markets (Final Part)
Neural Networks in Trading: A Multimodal, Tool-Augmented Agent for Financial Markets (Final Part)

We continue to develop the algorithms for FinAgent, a multimodal financial trading agent designed to analyze multimodal market dynamics data and historical trading patterns.

Dmitriy Gizlyk
パブリッシュされた記事Neural Networks in Trading: A Multimodal, Tool-Augmented Agent for Financial Markets (FinAgent)
Neural Networks in Trading: A Multimodal, Tool-Augmented Agent for Financial Markets (FinAgent)

We invite you to explore FinAgent, a multimodal financial trading agent framework designed to analyze various types of data reflecting market dynamics and historical trading patterns.

1
Dmitriy Gizlyk
パブリッシュされた記事Neural Networks in Trading: An Agent with Layered Memory (Final Part)
Neural Networks in Trading: An Agent with Layered Memory (Final Part)

We continue our work on creating the FinMem framework, which uses layered memory approaches that mimic human cognitive processes. This allows the model not only to effectively process complex financial data but also to adapt to new signals, significantly improving the accuracy and effectiveness of investment decisions in dynamically changing markets.

1
Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:層状メモリを持つエージェント
取引におけるニューラルネットワーク:層状メモリを持つエージェント

層状メモリアプローチは、人間の認知プロセスを模倣することで、複雑な金融データの処理や新しいシグナルへの適応を可能にし、動的な市場における投資判断の有効性を向上させます。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:ウェーブレット変換とマルチタスクアテンションを用いたモデル(最終回)
取引におけるニューラルネットワーク:ウェーブレット変換とマルチタスクアテンションを用いたモデル(最終回)

前回の記事では、Multitask-Stockformerフレームワークを検討しました。このフレームワークは、ウェーブレット変換とマルチタスク自己アテンション(Self-Attention)モデルを組み合わせたものです。本記事では、このフレームワークのアルゴリズムをさらに実装し、実際の過去データを用いてその有効性を評価していきます。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:ウェーブレット変換とマルチタスクアテンションを用いたモデル
取引におけるニューラルネットワーク:ウェーブレット変換とマルチタスクアテンションを用いたモデル

ウェーブレット変換とマルチタスク自己アテンション(Self-Attention)モデルを組み合わせたフレームワークを紹介します。本フレームワークは、ボラティリティの高い市場環境における予測の応答性および精度の向上を目的としています。ウェーブレット変換により、資産収益率を高周波成分と低周波成分に分解し、長期的な市場トレンドと短期的な変動の双方を的確に捉えることが可能となります。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:予測符号化を備えたハイブリッド取引フレームワーク(最終回)
取引におけるニューラルネットワーク:予測符号化を備えたハイブリッド取引フレームワーク(最終回)

予測符号化と強化学習アルゴリズムを組み合わせた金融時系列分析用のハイブリッド取引システム「StockFormer」の検討を引き続きおこないます。本システムは、複雑なパターンや資産間の相互依存関係を捉えることを可能にするDiversified Multi-Head Attention (DMH-Attn)機構を備えた、3つのTransformerブランチに基づいています。前回は、フレームワークの理論的な側面に触れ、DMH-Attn機構を実装しました。今回は、モデルのアーキテクチャと学習について解説します。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:予測符号化を備えたハイブリッド取引フレームワーク(StockFormer)
取引におけるニューラルネットワーク:予測符号化を備えたハイブリッド取引フレームワーク(StockFormer)

本記事では、予測符号化と強化学習(RL)アルゴリズムを組み合わせたハイブリッド取引システム「StockFormer」について解説します。本フレームワークは、統合型のDiversified Multi-Head Attention (DMH-Attn)機構を備えた3つのTransformerブランチを使用しています。DMH-Attnは、従来のAttentionモジュールを改良したもので、マルチヘッドのFeed-Forwardブロックを組み込むことにより、異なるサブスペースにわたる多様な時系列パターンを捉えることが可能です。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:Attentionメカニズムを備えたエージェントのアンサンブル(最終回)
取引におけるニューラルネットワーク:Attentionメカニズムを備えたエージェントのアンサンブル(最終回)

前回の記事では、複数のエージェントによるアンサンブルを用いて、異なるデータスケールのマルチモーダル時系列をクロス分析するマルチエージェント適応型フレームワーク「MASAAT」を紹介しました。今回は、このフレームワークのアプローチをMQL5で引き続き実装し、この研究を論理的な結論へと導きます。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:Attentionメカニズムを備えたエージェントのアンサンブル(MASAAT)
取引におけるニューラルネットワーク:Attentionメカニズムを備えたエージェントのアンサンブル(MASAAT)

アテンション機構と時系列解析を組み合わせたマルチエージェント自己適応型ポートフォリオ最適化フレームワーク(MASAAT: Multi-Agent Self-Adaptive Portfolio Optimization Framework)を提案します。MASAATは、価格系列や方向性の変化を分析する複数のエージェントを生成し、異なる詳細レベルで資産価格の重要な変動を特定できるように設計されています。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:マルチエージェント自己適応モデル(最終回)
取引におけるニューラルネットワーク:マルチエージェント自己適応モデル(最終回)

前回の記事では、強化学習アプローチと自己適応戦略を組み合わせ、市場の変動下でも、収益性とリスクの両立を図ることができるマルチエージェント自己適応(MASA: Multi Agent Self Adaptive)フレームワークを紹介しました。MASAフレームワークにおける各エージェントの機能も構築済みです。本記事では、前回の内容をさらに発展させ、その論理的な結論へと到達します。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:マルチエージェント自己適応モデル(MASA)
取引におけるニューラルネットワーク:マルチエージェント自己適応モデル(MASA)

マルチエージェント自己適応(MASA: Multi-Agent Self-Adaptive)フレームワークについて紹介します。本フレームワークは、強化学習と適応戦略を組み合わせ、変動の激しい市場環境においても収益性とリスク管理のバランスを実現します。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:Segment Attentionを備えたパラメータ効率重視Transformer(最終回)
取引におけるニューラルネットワーク:Segment Attentionを備えたパラメータ効率重視Transformer(最終回)

前回の記事では、PSformerフレームワークの理論的側面について議論しました。このフレームワークは、従来のTransformerアーキテクチャに、パラメータ共有(PS)メカニズムと時空間Segment Attention (SegAtt)という2つの主要な革新をもたらします。本稿では、前回に引き続き、提案された手法をMQL5を用いて実装する作業について説明します。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:Segment Attentionを備えたパラメータ効率重視Transformer (PSformer)
取引におけるニューラルネットワーク:Segment Attentionを備えたパラメータ効率重視Transformer (PSformer)

この記事では、新しいPSformerフレームワークを紹介します。これは、従来のTransformerアーキテクチャを多変量時系列予測の問題に適応させたものです。本フレームワークは、パラメータ共有(PS)機構とSegment Attention機構(SegAtt)の2つの主要な革新に基づいています。

youwei_qing
youwei_qing 2025.04.21
I noticed that the feedForward method with the second input parameter isn't working at all. Could this be an issue? virtual bool feedForward(CNeuronBaseOCL *NeuronOCL); virtual bool feedForward(CNeuronBaseOCL *NeuronOCL, CBufferFloat *SecondInput) { return feedForward(NeuronOCL); }
Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:シャープネス低減によるTransformerの効率向上(最終回)
取引におけるニューラルネットワーク:シャープネス低減によるTransformerの効率向上(最終回)

SAMformerは、長期の時系列予測におけるTransformerモデルの主要な欠点、すなわち学習の複雑さや小規模データセットでの汎化性能の低さに対して解決策を提供します。その浅いアーキテクチャとシャープネス認識型最適化により、不適切な局所解に陥ることを防ぎます。本記事では、MQL5を用いたアプローチの実装を続け、実際的な価値を評価していきます。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:シャープネス低減によるTransformerの効率向上(SAMformer)
取引におけるニューラルネットワーク:シャープネス低減によるTransformerの効率向上(SAMformer)

Transformerモデルの学習には大量のデータが必要であり、小規模データセットに対しては汎化性能が低いため、学習はしばしば困難です。SAMformerフレームワークは、この問題を回避し、不良な局所最小値に陥ることを防ぐことで解決を助けます。これにより、限られた学習データセットにおいてもモデルの効率が向上します。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:時系列予測のためのTransformerの最適化(LSEAttention)
取引におけるニューラルネットワーク:時系列予測のためのTransformerの最適化(LSEAttention)

LSEAttentionフレームワークは、Transformerアーキテクチャの改善を提供します。この手法は、特に長期の多変量時系列予測のために設計されました。提案されたアプローチは、従来のTransformerでよく遭遇するエントロピーの崩壊や学習の不安定性の問題を解決するために応用可能です。

Dmitriy Gizlyk
パブリッシュされた記事取引におけるニューラルネットワーク:双曲潜在拡散モデル(最終回)
取引におけるニューラルネットワーク:双曲潜在拡散モデル(最終回)

HypDiffフレームワークで提案されているように、双曲潜在空間における初期データのエンコーディングに異方性拡散プロセスを用いることで、現在の市場状況におけるトポロジー的特徴を保持しやすくなり、分析の質を向上させることができます。前回の記事では、提案されたアプローチの実装をMQL5を用いて開始しました。今回はその作業を継続し、論理的な完結に向けて進めていきます。