Diskussion zum Artikel "Techniken des MQL5-Assistenten, die Sie kennen sollten (Teil 03): Shannonsche Entropie"

 

Neuer Artikel Techniken des MQL5-Assistenten, die Sie kennen sollten (Teil 03): Shannonsche Entropie :

Der Händler von heute ist ein Philomath, der fast immer (entweder bewusst oder unbewusst...) nach neuen Ideen sucht, sie ausprobiert, sich entscheidet, sie zu modifizieren oder zu verwerfen; ein explorativer Prozess, der einiges an Sorgfalt kosten sollte. Diese Artikelserie wird vorschlagen, dass der MQL5-Assistent eine Hauptstütze für Händler sein sollte.

Claude Shannon veröffentlichte 1948 seinen Aufsatz „A mathematical theory of communication“ (Eine mathematische Theorie der Kommunikation), das eine neuartige Idee der Informationsentropie enthielt. Entropie ist ein Begriff aus der Physik. Sie ist ein Maß dafür, inwieweit Teilchen innerhalb eines Objekts aktiv sind. Betrachtet man beispielsweise die drei Zustände von Wasser, nämlich Eis, Flüssigkeit und Dampf, so stellt man fest, dass die kinetische Energie der Teilchen im Dampf am höchsten und im Eis am niedrigsten ist. Das gleiche Konzept wird in der Mathematik über die Wahrscheinlichkeit angewandt. Betrachten Sie die folgenden drei Sätze.

Satz 1: 

Set 1


Satz 2: 

Set 2


Satz 3: 

Set 3


Wenn Sie raten müssten, welche dieser Mengen weist die höchste Entropie auf? 
Wenn Sie sich für die letzte Variante entschieden haben, haben Sie Recht, aber wie können wir diese Antwort überprüfen? Am einfachsten lässt sich diese Frage beantworten, indem man die Anzahl der Möglichkeiten, jede Menge neu zu organisieren, als Entropieschätzung verwendet und dabei ähnliche Farbabschnitte ignoriert. Für die erste Menge gibt es daher nur eine Möglichkeit, sie „neu zu ordnen“. Wenn wir uns jedoch die nachfolgenden Mengen ansehen, nimmt die Anzahl der Permutationen in Bezug auf die Farbe deutlich zu, so dass man argumentieren könnte, dass die letzte Menge die höchste Entropie aufweist. 

Autor: Stephen Njuki

 

Ich habe den Artikel gelesen, aber ich habe ihn nicht wirklich verstanden:

1. Was geben Sie dem Random Forest als Input.

2. Wie berechnet man die Entropie - basierend auf der Klassifizierungsgeschichte des Waldes?

Die Übersetzung des Artikels ist leider nicht von hoher Qualität, was das Verständnis erschwert.

Manchmal scheint es, dass es nicht genügend Illustrationen für den Artikel gibt, obwohl im Text davon die Rede ist:

"

Schauen wir uns ein anschauliches Beispiel an - in der obigen Abbildung kann ein traditioneller Entscheidungsbaum ( blau dargestellt) aus allen vier Attributen wählen, wenn er entscheidet, wie er einen Knoten aufteilt. Er entscheidet sich für Attribut 1 (schwarz und unterstrichen), da dieses die Daten in maximal getrennte Gruppen aufteilt.

"

 

Es gibt Probleme mit diesem Signalgenerator. Der Code selbst macht keinen Sinn.

Ich habe angefangen, Probleme zu bemerken, als Zeile 158 falsch war. Sie erstellen __INPUTS Anzahl von Regeln, wenn es sein sollte

__RULES.


Ich verstehe, dass der Entscheidungswald während der Optimierung verwendet wird, aber was nützt das, wenn man ihn nicht

Es scheint so, als ob der Entscheidungswald dazu verwendet wird, etwas zu verifizieren, aber nichts zur Signalentscheidung beiträgt.

Und wenn Sie den Entscheidungswald verwenden, dann wird die Verwendung nicht erklärt (oder erfordert Vorkenntnisse). Hier:


CDForest::DFProcess(DF,m_in_calculations,m_out_calculations);

   m_update.B(m_out_calculations[1]);


Sie ändern das Profil der neutralen Menge. Das wirkt sich auf das Signal aus, aber könnten Sie bitte erklären, wie und warum.

Alles andere ist ausgezeichnet.