LLM Council Expert Trader
- Experten
- Cedric Olivier Kusiele Some
- Version: 10.0
- Aktualisiert: 22 Februar 2026
- Aktivierungen: 5
LLM Council Expert Trader™ - KI-gesteuerter Multi-Agenten-Handels-Expert Advisor für MT5
Delegieren Sie Ihre Handelsentscheidungen an einen KI-Rat von Expert Traders der nächsten Generation, der für diszipliniertes, semi-passives Trading auf der Grundlage von Smart Money Concepts (SMC) und der Inner Circle Trader (ICT) Methodologie entwickelt wurde.
LLM Council Expert Trader ist ein fortschrittlicher Expert Advisor (EA), der statische Indikatoren durch Echtzeit-Indikatoren ersetzt , die von Large Language Models wie Claude, GPT, Qwen - und jetzt auch von individuell angepassten LLMs, die lokal auf Ihrem eigenen Rechner laufen- unterstützt werden. Das System funktioniert wie ein institutioneller Trading Desk, bei dem mehrere KI-Agenten zusammenarbeiten und Verzerrungen, Struktur, Risiko und Ausführung validieren, bevor ein Handel platziert wird.
🆕 NEU - LM Studio Local Inference Support (KI lokal ausführen - keine API-Kosten!)
Die neueste Version führt eine vollständige LM Studio-Integration ein, die es Ihnen ermöglicht, den gesamten KI-Rat auf Ihrer eigenen Hardware mit jedem GGUF-kompatiblen Open-Source-Modell auszuführen - vollständig offline und ohne API-Kosten. Fügen Sie Ihre LoRA-Adapter mit der Modellbasis zusammen, um Ihr fein abgestimmtes Modell in LM Studio mit GGUF Fusion Pro™ zu verwenden.
- ✔ Führen Sie Llama 3.1, Qwen 2.5, Mistral, DeepSeek-R1 destilliert und mehr aus - lokal
- ✔ Keine API-Kosten für lokale Inferenz - eigene KI, eigene Daten
- ✔ Vollständiges Modell-Routing pro Agent - weisen Sie verschiedene lokale Modelle pro Agent zu (HTF, Struktur, Strategie, Ausführung)
- ✔ Nahtlose OpenAI-kompatible API - Drop-in-Ersatz, keine prompten Änderungen erforderlich
- ✔ Funktioniert neben OpenRouter und Together.ai im Hybrid-Routing-Modus
- ✔ Unterstützt optionale API-Schlüsselauthentifizierung, wenn LM Studio auth aktiviert ist
- ✔ Exponentieller Backoff mit 3 Wiederholungen für robuste lokale Serververbindungen
- ✔ Kostenverfolgung protokolliert lokale Aufrufe als $0,00, um die Optimierungsmetriken genau zu halten
Empfohlene lokale Modelle für die Handelsanalyse:
- 🥇 Qwen2.5-14B-Instruct-GGUF - Beste Balance zwischen Argumentationsqualität und VRAM-Nutzung
- ⚡ Meta-Llama-3.1-8B-Instruct-GGUF - Schnellste Inferenz, geringer VRAM (~8GB)
- 🏆 Qwen2.5-72B-Instruct-GGUF - Höchste Qualität, benötigt ~48GB VRAM
- 🧠 DeepSeek-R1-Distill-Qwen-14B - Hervorragend strukturierte Ausgabe für Ausführungsagenten
🆕 NEU - Hybrides LLM-Routing (LM Studio + Together.ai + OpenRouter)
Die neueste Version führt ein intelligentes Drei-Wege-Hybrid-Routing ein, das es dem EA ermöglicht, KI-Anfragen dynamisch zwischen LM Studio, Together.ai und OpenRouter zu routen - gleichzeitig, pro Agent - je nach Verfügbarkeit, Preis, Leistung oder Händlerkonfiguration.
- ✔ Automatisches Routing von KI-Anfragen zwischen LM Studio, Together.ai und OpenRouter
- ✔ Prioritätsreihenfolge: LM Studio → Together.ai → OpenRouter (vollständig konfigurierbar)
- ✔ Optimieren Sie Kosteneffizienz, Latenz und Zuverlässigkeit
- ✔ Zugriff auf ein breiteres Ökosystem von KI-Modellen - lokal und in der Cloud
- ✔ Manuelle Provider-Priorität oder Fallback-Konfiguration
- ✔ Erhöhte Ausführungskontinuität bei API-Ausfällen
- ✔ Lokale Ausführung schwerer Modelle für HTF/Ausführung und schnelle Cloud-Modelle für Struktur/Strategie
Dieses Upgrade bietet mehr Flexibilität, Redundanz und Kostenoptimierung für KI-gesteuerte Handelsoperationen.
🆕 NEU - Benutzerdefinierte LLM-Agenten (LoRA / Adapter / Fine-Tune-Unterstützung)
Die neueste Version führt eine erweiterte Modellanpassung ein, die es Händlern und Entwicklern ermöglicht, ihre eigenen LoRA-Adapter, fein abgestimmte Modelle oder benutzerdefinierte Strukturagenten einzusetzen.
- ✔ Verwendung von benutzerdefinierten LoRA-Adaptern für die SMC/ICT-Strukturerkennung
- ✔ Einfügen von fein abgestimmten LLMs, die auf Ihren eigenen Marktdaten trainiert wurden
- ✔ Weisen Sie verschiedene Modelle pro Agent zu (HTF, Struktur, Strategie, Ausführung)
- ✔ Ideal für eigenes Research, Prop-Firmen und Quant Trader
Dies macht LLM Council Expert Trader nicht nur zu einem EA, sondern zu einem KI-Handelsframework auf Forschungsniveau.
🆕 NEU - Holen Sie sich alles, was Sie brauchen, um auf Together.ai oder anderswo Ihren perfekten LLM-Handelsagenten zu trainieren. Holen Sie sich Ihren KI-Handelsagenten Fine-Tuning JSONL Dataset Generator
Warum Trader LLM Council Expert Trader verwenden
- ✔ Reduziert Bildschirmzeit und emotionale Entscheidungsfindung
- ✔ Wendet ICT- und SMC-Logik konsistent und objektiv an
- ✔ Erzwingt strengen Risiko- und Drawdown-Schutz
- ✔ Ideal für Prop-Firm-Herausforderungen, Live-Konten und Demo-Konten
- ✔ Führen Sie AI zum Nulltarif mit lokaler Inferenz über LM Studio aus
Multi-Agenten-KI-Architektur
- HTF-Agent: Erkennt Verzerrungen im höheren Zeitrahmen (D1/H4/H1) unter Verwendung von SMC-, Liquiditäts- und AMD-Phasen.
- Struktur-Agent: Identifiziert MSS, BOS, FVGs und Orderblöcke auf M5 - jetzt vollständig kompatibel mit benutzerdefinierten LoRA, fein abgestimmten Modellen oder lokalen LM Studio Modellen.
- Strategie-Agent: Wählt Strategien aus oder passt sie an, basierend auf Volatilität und aktueller Performance.
- Ausführungs-Agent: Endgültige Risikoprüfung (Minimum R:R 1:2, Spread- und Portfolio-Prüfungen).
Fortgeschrittenes Risiko- und Positionsmanagement
- Dynamische Positionsgrößenbestimmung (0,25x - 2x Basisrisiko)
- Automatische Drawdown-basierte Risikoreduzierung (>5%)
- Breakeven, Trailing-Stops hinter Strukturen
- Teilweise Gewinnmitnahme (30% / 60%)
- Automatische Schließung bei ungünstiger Marktstruktur oder Inaktivität
LLM & AI-Anbieter-Integration
- Lokale Inferenz mit LM Studio - führen Sie Open-Source-Modelle auf Ihrer eigenen Hardware zum Nulltarif aus
- Hybride Echtzeit-LLM-Analyse über OpenRouter API und Together.ai
- Unterstützt Claude-3.5-Sonnet, o1-mini, Qwen-2.5-72B und mehr über die Cloud
- Unterstützt Llama 3.1, Qwen 2.5, Mistral, DeepSeek-R1 destilliert und mehr über das lokale LM Studio
- Benutzerdefinierte LoRA-Adapter und feinabgestimmte LLMs über Together.ai
- Modellüberschreibung pro Agent (HTF / Struktur / Strategie / Ausführung) - Cloud oder lokal
- Verfolgt API-Kosten für Effizienz (lokale Inferenzprotokolle als $0.00)
🧠 Wie man das richtige LLM für den Handel auswählt (mit Livebench)
Nicht alle Large-Language-Modelle erbringen die gleiche Leistung in Bezug auf finanzielle Schlussfolgerungen, Marktstrukturanalyse oder Kosteneffizienz. Um Modelle objektiv zu vergleichen, empfehlen wir die Verwendung von Livebench.ai, einer unabhängigen Benchmark-Plattform für LLM-Leistungen in der Praxis.
- 1️⃣ Fokus auf Reasoning & Analysis Scores
Unverzichtbar für SMC/ICT-Strukturerkennung und Ausführungslogik. - 2️⃣ Balance zwischen Qualität und Kosten
Identifizieren Sie das beste Verhältnis zwischen Qualität und Preis für die Intraday-Analyse. Mit LM Studio sind lokale Modelle immer $0,00. - 3️⃣ Passen Sie das Modell an die Aufgabe an
- HTF-Verzerrung → stark begründete Modelle (Claude-Klasse oder Qwen2.5-72B lokal)
- Struktur und Ausführung → schnelle Modelle, benutzerdefinierte LoRA-Adapter oder Llama-3.1-8B lokal - 4️⃣ Mit dem Markt mitwachsen
Rotation oder Feinabstimmung der Modelle, wenn sich Volatilität und Strukturverhalten ändern.
💡 Tipp: Validieren Sie neue LLMs, LoRA-Adapter, feinabgestimmte Modelle oder lokale LM Studio-Modelle immer auf Demokonten, bevor Sie sie im Echtbetrieb oder in einem Fonds einsetzen.
Leistungserwartungen*
- Gewinnrate: 45-65%
- Gewinnfaktor: 1,5-2,5+
- Maximaler Drawdown: <15% mit aktivierten Schutzmechanismen
- Durchschnittliche LLM-Kosten: ~$0,01-0,05 pro Analyse (Cloud) / $0,00 mit LM Studio Local Inference
*Die Ergebnisse hängen von den Marktbedingungen und Einstellungen ab. Leistungen in der Vergangenheit sind keine Garantie für zukünftige Ergebnisse.
🔥 LIMITED RENTAL PROMOTION 🔥
✔ 1-Monats-EA-Miete
❌ Regulärer Preis: $100 USD
✅ Promo-Preis: $44 USD
⏳ Angebot gültig bis 28. Februar 2026
🚀 LIMITED EA PURCHASE PROMOTION 🚀
✔ EA-Lizenz auf Lebenszeit
❌ Regulärer Preis: 5.000 USD
✅ Promo-Preis: 444 USD
🎯 Sie sparen 4.556 USD (-91%)
⏳ Angebot gültig bis 31. März 2026
Keine wiederkehrenden EA-Gebühren. Unbegrenzte Nutzung.
(Es fallen nur Kosten für die API-Nutzung an - oder Sie nutzen LM Studio völlig kostenlos mit lokaler Inferenz)
Anweisungen für die Nutzung:
- Legen Sie Ihren OpenRouter-API-Schlüssel fest (erhalten Sie einen unter openrouter.ai). Optional bei Verwendung von LM Studio local inference.
- Laden Sie die benötigten Indikatoren (.ex5) herunter und speichern Sie sie in \MQL5\Indicators: AVPT_Indikator; CRT_Candle_Range_Theory_Indikator; HistoricaPriceProjection; ICT_Concepts; Liquidity Swings; Liquidity Sweep; Multi_Timeframe_Harmony_Index_Indikator; Support und Resistence Levels mit Breaks; TradingSessions_IB_Signals
- Hängen Sie Indikatoren an M5-H1-Charts an.
- Hängen Sie den EA an M5-H1-Charts an. Optionale Konfigurationen: Forex-Konfiguration; Krypto-Konfiguration
- Überwachen Sie Protokolle für Agentenentscheidungen und Trades.
🖥️ Optional: LM Studio Local Inference Setup
- Laden Sie LM Studio herunter und installieren Sie es (kostenlos, Windows/Mac/Linux).
- Laden Sie ein GGUF-Modell (z.B. Qwen2.5-14B-Instruct oder Llama-3.1-8B-Instruct) aus dem LM Studio Modellbrowser herunter.
- In LM Studio → Registerkarte Lokaler Server: Aktivieren Sie CORS und klicken Sie dann auf Server starten (Standardport 1234).
- In MT5 → Extras → Optionen → Expert Advisors → WebRequest aktivieren und http://localhost:1234 hinzufügen .
- In EA-Eingaben: setzen Sie InpUseLMStudio = true und InpLMStudioURL = http://localhost:1234/v1/chat/completions.
Obligatorischer Schritt: URLs im Terminal hinzufügen
Gemäß der Dokumentation: Um die Funktion WebRequest() zu verwenden, fügen Sie die folgenden URLs zur zulässigen Liste hinzu:
https://openrouter.ai https://api.together.xyz http://localhost:1234 (fügen Sie dies hinzu, wenn Sie die lokale Inferenz von LM Studio verwenden )
