Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 170

 
Alexey Burnakov:

Auch hier habe ich Dutzende von Modellen, und auch ich verfälsche die Prädiktoren und Parameter. Und diese Modelle bringen über einen Zeitraum von jeweils 8 Jahren einen soliden Gewinn! Und das ist die Testphase. Aber wenn die durch den Test ausgewählten "besten" Modelle durch verzögerte Stichproben getestet werden, gibt es Überraschungen. Dies wird als Kreuzvalidierung der Modellanpassung bezeichnet.

Sie haben zum Beispiel eine Validierung an einer verzögerten Stichprobe durchgeführt. Angenommen, das Modell für die zurückgestellten Daten wurde zusammengeführt. Was tun Sie in diesem Fall? Wenn Sie die Parameter erneut anpassen, um die Validierung der ausstehenden Stichprobe zu bestehen, beziehen Sie im Wesentlichen die Daten der ausstehenden Stichprobe in Ihre Kreuzvalidierung ein, und die Kreuzvalidierung wird ebenfalls angepasst. Dies kann durch Hinzufügen einer neuen aufgeschobenen Probe korrigiert werden. Was ist, wenn das Modell auch hier versagt? Sollten wir die Parameter anpassen, um auch die neue verzögerte Probenahme zu berücksichtigen? Es ist ein endloses Rennen.

Eine aufgeschobene Stichprobe in die Kreuzvalidierung einzubeziehen und eine neue aufgeschobene Stichprobe zu erstellen, ist nicht die Lösung, sondern eine Endlosschleife, bis man Glück hat und das Modell die aufgeschobene Validierung zufällig besteht. Dann können Sie aufhören, aber das ist keine Devisenlösung, sondern nur ein Glücksfall, der allerdings statistisch gesehen ein Verlustgeschäft wäre.

Die Frage ist also: Nehmen wir an, das Modell für die ausstehenden Daten ist stark gesunken. Was tun Sie in diesem Fall?

 
Dr.Trader:

Die Frage ist also: Angenommen, das Modell für die ausstehenden Daten wurde zusammengeführt. Was tun Sie in diesem Fall?

Ich dachte, diese Frage sei zu persönlich :)

Besser so - wenn Ihr Modell den Test an der ausstehenden Stichprobe nicht besteht, schließen Sie die ausstehende Stichprobe in die Kreuzvalidierung ein und erstellen eine neue ausstehende Stichprobe? Oder machen Sie es anders?


Ich zum Beispiel gehe von dem aus, was San Sanych schon 1000 Mal wiederholt hat - man muss die Qualität der Prädiktoren bewerten. "Qualität" ist ein dehnbarer Begriff. Ich zum Beispiel mache das durch eine solche Kreuzvalidierung, und es ist eher eine Auswahl von Prädiktoren als von Modellparametern. Wenn das Modell während des Trainings in jedem Bereich die gleichen Abhängigkeiten in den Daten findet, ist das ein starkes Argument dafür, dass die Prädiktoren in Ordnung sind.
Ich mag an meinem Ansatz nicht, dass ich mit einem Ensemble handeln muss. Wenn die Abhängigkeiten konstant sind, genügt es, am Ende ein Modell auf die ausgewählten Prädiktoren zu trainieren, das dieselben Abhängigkeiten wiederfindet und sich selbst austauschen kann. Aber mir fehlt etwas bei der Auswahl der Prädiktoren, ein Modell schlägt fehl.

 
Dr.Trader: Qualität der Prädiktoren....
Aus dem primitiven Beispiel ergibt sich, dass die Eigenschaften des Ziels ebenso wichtig sind...
 
Ich gehe sogar noch weiter als das. Die Zielfunktion ist ein SEHR wichtiger Punkt bei der Erstellung eines Modells, denn die Zielfunktion hilft dem Algorithmus, die Aufteilung vorzunehmen. Ich habe dieses Problem viele Male, aber noch nicht gelöst, so dass ich den Zielwert von 50 Pips links. Direkt über dem Spread...
 
Alexey Burnakov:

Auch hier habe ich Dutzende von Modellen, und ich bastle auch an Prädiktoren und Parametern herum. Und diese Modelle gehen jeweils über einen Zeitraum von 8 Jahren in ein solides Plus! Und das ist die Testphase. Wenn jedoch die durch den Test ausgewählten "besten" Modelle durch verzögerte Stichproben getestet werden, kommt es zu Überraschungen. Dies wird als Kreuzvalidierung der Modellanpassung bezeichnet.

Wenn das klar ist, geht das reine Experimentieren weiter. Wenn das nicht klar ist, wird die Qualität in der realen Welt um ein Vielfaches sinken. Und das ist in 99 % der Fälle der Fall.

All dies geschieht, weil der Markt mega oft gegen seine eigenen Statistiken verstößt...

1) Zuerst werde ich Ihnen zeigen, warum ich das glaube und es beweisen.

2) Dann werde ich erklären, warum dies geschieht, die Mechanik des Prozesses

Gib mir ein paar Stunden...

Ich werde keine fertigen Lösungen anbieten, weil ich selbst keine habe, aber allein das Verständnis des Prozesses ist etwas...

1)

==================================================================

Als erstes habe ich zwei tiefe Netze mit probabilistischen Ausgängen trainiert. Eigentlich ist jedes Netz geeignet, Hauptsache, der Ausgang des Netzes ist keine eindeutige Klassenantwort - "1", "0" Das heißt, die Ausgabe lautet zum Beispiel "0,13" und bedeutet, dass die aktuellen Daten mit einer Wahrscheinlichkeit von "0,13%" zur Klasse "1" gehören.

Ein Netzwerk habe ich ausschließlich für den Kauf, das andere ausschließlich für den Verkauf ausgebildet.

Das Signal (Zielpfund) für den Verkauf ist der Punkt, ab dem es einen Rückgang von mindestens 0 ,2 % des Preises gab,


й

Das Ziel sieht aus wie "000000000010000000000", wobei "1" eine bärische Umkehrung bedeutet und "0" nicht.

Bei einer Umkehrung nach oben ist alles gleich, bzw. ...

Alle Preise der letzten drei OHLC-Candlesticks wurdenals Prädiktoren verwendet und alle möglichen Kombinationen der Differenzen zwischen ihnen wurden gebildet

Die Netze sind also trainiert, wir nehmen die Netzvorhersagen (ihre Ausgaben) und zeichnen Charts unter den Preis. Die Grafiken unten zeigen die Ausgaben von zwei Netzen für Kauf und Verkauf. Die Netzausgabe zeigt zum Beispiel die Wahrscheinlichkeit einer Umkehrung nach unten bei der nächsten Kerze. Siehe FIG. 1, dasselbe gilt für den Kauf.

Grün signalisiert einen Ausstieg zum Kauf, und rot einen Ausstieg zum Verkauf.

ф

Bei genauer Betrachtung von FIG. Wenn die Wahrscheinlichkeit einer Umkehrung nach oben höher ist als die Wahrscheinlichkeit einer Umkehrung nach unten (die grüne Kurve ist höher als die rote), fällt der Kurs immer, obwohl wir dem Netz eigentlich das Gegenteil beigebracht haben, versuchen wir, die Daten anschaulicher darzustellen. Lassen Sie uns für den Anfang kumulative Summen von Kauf- und Verkaufsausgaben bilden

Cumsum(buy.neural); Cumsum (sell.neural)

я

fig. 3

Und nun bilden wir die Differenz zwischen der kumulierten Summe des Kaufnetzwerks und der kumulierten Summe des Verkaufsnetzwerks

Cumsum(buy.neural)- Cumsum (sell.neural)


ц

Wie in FIG zu sehen ist. 4 aus dem blauen Diagramm und dem Preisdiagramm ist der Preis vollständig umgekehrt mit den Netzwerkprognosen korreliert (blaues Diagramm). Um es noch deutlicher zu machen, werde ich das Vorzeichen des blauen Diagramms umkehren (invertieren).

Cumsum(buy.neural)- Cumsum (sell.neural)/ -1

к

Blick auf FIG. 5 haben wir keinen Zweifel, dass der Kurs gegen die Prognosen des Netzwerks verstößt, und wir können auch die interessante Schlussfolgerung ziehen, dass wir mit Hilfe von neuronalen Netzwerken und ihren statistischen Wahrscheinlichkeiten in der Lage sind, den Kurs vollständig zu rekonstruieren, und zwar nur auf der Grundlage des Wahrscheinlichkeitswissens, ob die Umkehrung bei der nächsten Kerze erfolgt oder nicht.

Das bedeutet, dass es eigentlich keinen Unterschied macht, ob man den Kurs oder das blaue Diagramm betrachtet, aber die Marktmechanik ist klar : "Wenn die Wahrscheinlichkeit einer Abwärtsbewegung höher ist als die Wahrscheinlichkeit einer Aufwärtsbewegung, wird der Kurs steigen"...

=========================================================================

Weitergehen....

Ich habe ein verstecktes Markov-Modell SMM oder HMM - Hidden Markov Model - trainiert.

Es handelt sich um ein probabilistisches Modell, das speziell für nicht-stationäre Daten angewandt wird; Gerüchten zufolge kann es auch auf Märkte angewendet werden...

Auf die gleiche Weise wurden zwei Modelle erstellt, aber das Zielmodell zeigt keine Umkehrungen an, sondern fängt einfach den Trend ein, so dass ein Modell den Aufwärtstrend identifiziert und eine Wahrscheinlichkeitsschätzung abgibt, während das andere Modell eine Abwärtswahrscheinlichkeit angibt.

н

Achten Sie nicht auf den Handel, ich habe nur experimentiert...

unten haben wir also zwei Vektoren mit den Wahrscheinlichkeiten eines Aufwärtstrends grün und eines Abwärtstrends rot , die schwarze Linie ist nur die Spitzenwahrscheinlichkeit, die das Modell ausgibt, es ist nur die Standardabweichung, einfacher noch ist die Bollinger

Wenn das Modell anfängt, Spitzenwahrscheinlichkeiten für ein bestimmtes Ereignis zu erzeugen (über die schwarze Linie hinaus nach unten), macht es das Gegenteil...
Auch hier haben wir also im Wesentlichen eine Preisbewegung entgegen unserer eigenen Statistik...

Wenn der Markt ein Biest ist, können die MO-Algorithmen den Markt vorhersagen? Wenn die RF, das Netzwerk, das SMM usw. ihre Vorhersagen auf die eine oder andere Weise statistisch machen....

Im Grundeist dies die Antwort , warum das Modell praktisch am zweiten Tag nach seiner Optimierung zusammenbricht, auch wenn es (die Optimierung) dreimal genetisch und viermal prokrosvalidiert ist...

Was ist zu tun? Ich weiß es noch nicht

 
mytarmailS:

1)

==================================================================

Als erstes habe ich zwei tiefe Netze mit probabilistischen Ausgaben trainiert; eigentlich ist jedes Netz geeignet, Hauptsache, die Ausgabe des Netzes ist keine eindeutige Antwort auf die Klasse - "1", "0" Das heißt, die Ausgabe lautet zum Beispiel "0,13" und bedeutet, dass die aktuellen Daten mit einer Wahrscheinlichkeit von "0,13%" zur Klasse "1" gehören.

Ein Netzwerk habe ich ausschließlich für den Kauf, das andere ausschließlich für den Verkauf ausgebildet.

Das Signal (Zielpfund) für den Verkauf ist der Punkt, ab dem es einen Rückgang von mindestens 0 ,2 % des Preises gab,


Das Ziel sieht aus wie "000000000010000000000", wobei "1" eine bärische Umkehrung bedeutet und "0" nicht.

Bei einer Umkehrung nach oben ist alles gleich, bzw. ...

Alle Preise der letzten drei OHLC-Candlesticks wurdenals Prädiktoren verwendet und alle möglichen Kombinationen der Differenzen zwischen ihnen wurden gebildet

Die Netze werden also trainiert, und wir nehmen die Netzvorhersagen (ihre Ausgaben) und zeichnen Charts unter den Kurs.

Bei genauer Betrachtung von FIG. 2, können Sie sehen, dass die Preiskurve diesen Wahrscheinlichkeiten widerspricht.

Blick auf FIG. 5 Sie haben keine Zweifel, der Kurs läuft den Prognosen des Netzwerks zuwider, und es ist auch interessant, dass wir mit Hilfe von neuronalen Netzwerken und ihren statistischen Wahrscheinlichkeiten in der Lage sind, den Kurs vollständig zu rekonstruieren, und zwar nur auf der Grundlage des Wissens, ob die Umkehr bei der nächsten Kerze zu erwarten ist oder nicht.

Ich bin ein kluger Mensch, der neuronale Netze aller Art entwickelt und trainiert, aber dennoch einfache Dinge nicht sieht. Ich habe Ihren Beitrag gelesen und war ziemlich überrascht. Wenn ich es richtig verstanden habe, haben Sie, grob gesagt, alle Kursrückgänge von 0,2 % nach einem Hoch gefunden, dann drei Kerzen in der Nähe dieses Hochs genommen und einige Manipulationen mit ihren Preisen vorgenommen und sie schließlich mit Hilfe eines neuronalen Netzes auf eine gewisse Wahrscheinlichkeit reduziert. Aber entschuldigen Sie, halten Sie einen solchen Ansatz nicht für zu primitiv? :) Sie graben an den falschen Stellen. Deshalb ist das Ergebnis das Gegenteil der Realität. Ich würde Ihren Ansatz folgendermaßen charakterisieren: Sie versuchen, 3 Pixel aus einem FullHD-Bild zu nehmen und sich anhand dieser drei Pixel ein Bild vom gesamten Bild zu machen. OK, nicht das ganze Bild, aber wie hoch ist die Wahrscheinlichkeit, mindestens 10 % der Bildfläche richtig vorherzusagen? Ich hoffe, mein Beispiel ist klar. Man muss nicht auf die Pixel schauen, um das Bild zu sehen. Mit anderen Worten: Man muss sich nicht einzelne Balken ansehen, um das Diagramm zu verstehen, sondern das gesamte Diagramm. Und die Lösung des Problems liegt eher im Bereich der Geometrie als zum Beispiel in der Algebra, der Physik oder der Biologie. Wenn ich jedoch einige der Forschungsarbeiten lese, die hier durchgeführt werden, habe ich das Gefühl, dass sie versuchen, die menschliche Struktur mit Hilfe der Geografie zu verstehen. :)
 

BlackTomcat:
1) Ich habe Ihren Beitrag gelesen und war ziemlich überrascht. Wenn ich es richtig verstanden habe,

2) sie schließlich mit Hilfe eines neuronalen Netzes auf eine bestimmte Wahrscheinlichkeit zu bringen. Aber entschuldigen Sie, halten Sie einen solchen Ansatz nicht selbst für zu primitiv? :) Sie graben an der falschen Stelle. Deshalb ist das Ergebnis genau das Gegenteil von der Realität.

3) Ich würde Ihren Ansatz folgendermaßen charakterisieren: Sie versuchen, 3 Pixel aus einem FullHD-Bild zu nehmen und sich anhand dieser drei Pixel ein Bild vom gesamten Bild zu machen. OK, nicht das ganze Bild, aber wie hoch ist die Wahrscheinlichkeit, mindestens 10 % der Bildfläche richtig vorherzusagen? Ich hoffe, mein Beispiel ist klar. Man muss nicht auf die Pixel schauen, um das Bild zu sehen.

4) Mit anderen Worten: Man muss sich nicht einzelne Balken ansehen, um das Diagramm zu verstehen, sondern das gesamte Diagramm. Und die Lösung des Problems liegt eher im Bereich der Geometrie als zum Beispiel in der Algebra, der Physik oder der Biologie. Wenn ich jedoch einige der Forschungsarbeiten lese, die hier durchgeführt werden, habe ich das Gefühl, dass sie versuchen, die menschliche Struktur mit Hilfe der Geografie zu verstehen. :)

1) Richtig...

2) ok, aber warum sind dann die Wahrscheinlichkeiten entgegengesetzt, es sollte doch ein einfacher Zufall sein und keine umgekehrte Korrelation

3) Ich stimme zu, ich brauche ein Maximum an Informationen in maximal komprimierter Form, deshalb habe ich in letzter Zeit über das Volumenprofil gesprochen, oder einige Alternativen...

Haben Sie Vorschläge für die Präsentation von Netzdaten? Bitte teilen Sie sie mit, denn dafür sind wir alle hier.

4) Ich bin absolut einverstanden mit Ihnen, ich habe über rätseln, wie es zu tun, zum Beispiel, muss ich alle Ebenen, die innerhalb der Spanne des aktuellen Preises fallen zu speichern, wie mache ich das? Wie kann ich die Ebenen in das Netz einspeisen? Neben ihrer Zahl auf jeder Kerze wird anders sein, es ist nicht eine triviale Aufgabe, vor allem für mich.

p.s. Bitte zitieren Sie nicht meinen gesamten Beitrag, nur ein paar Worte reichen aus, um zu verstehen, dass Sie mit mir sprechen, bitte löschen Sie unnötiges Zeug

 
BlackTomcat:
Kluge Leute entwickeln und trainieren neuronale Netze aller Art, aber sie sehen die einfachen Dinge nicht. Ich habe Ihren Beitrag gelesen und war ziemlich überrascht. Wenn ich es richtig verstanden habe, haben Sie, grob gesagt, alle Kursrückgänge von 0,2 % nach einem Hoch gefunden, dann drei Kerzen in der Nähe dieses Hochs genommen und einige Manipulationen mit ihren Preisen vorgenommen und sie schließlich mit Hilfe eines neuronalen Netzes auf eine bestimmte Wahrscheinlichkeit reduziert. Aber entschuldigen Sie, halten Sie einen solchen Ansatz nicht für zu primitiv? :) Sie graben an den falschen Stellen. Deshalb ist das Ergebnis das Gegenteil der Realität. Ich würde Ihren Ansatz folgendermaßen charakterisieren: Sie versuchen, 3 Pixel aus einem FullHD-Bild zu nehmen und sich anhand dieser drei Pixel ein Bild vom gesamten Bild zu machen. OK, nicht das ganze Bild, aber wie hoch ist die Wahrscheinlichkeit, mindestens 10 % der Bildfläche richtig vorherzusagen? Ich hoffe, mein Beispiel ist klar. Man muss nicht auf die Pixel schauen, um das Bild zu sehen. Mit anderen Worten: Man muss sich nicht einzelne Balken ansehen, um das Diagramm zu verstehen, sondern das gesamte Diagramm. Und die Lösung des Problems liegt eher im Bereich der Geometrie als zum Beispiel in der Algebra, der Physik oder der Biologie. Wenn ich jedoch einige der Forschungsarbeiten lese, die hier durchgeführt werden, habe ich das Gefühl, dass sie versuchen, die menschliche Struktur mit Hilfe der Geografie zu verstehen. :)

Ich stimme zu. Man muss das Gesamtbild betrachten.

Aber das ist nur für ein statisches Bild gut. Das heißt, wir können das gesamte Bild bedingt in 100 Teile unterteilen, aus 70 Teilen lernen und aus 30 Teilen hervorragende Vorhersagefähigkeiten erhalten. Das ist ungefähr das, was wir mit Vorhersagen auf dem Markt machen. Wo liegt also das Problem? Warum gibt es Probleme bereits in Echtzeit?

Und der Haken ist, dass das Bild nicht statisch ist. Es ist ein Film. Wenn man gelernt hat, Vorhersagen in einem der Bilder eines Films zu treffen, ist es natürlich sinnlos, die benachbarten Bereiche des Bildes im wirklichen Leben vorherzusagen - das nächste Bild ist bereits anders! Und keines der Einzelbilder des Films hat absolute Kopien, und selbst wenn man in der Zukunft ähnliche Einzelbilder wie in der Vergangenheit findet, folgen diesen Einzelbildern andere, nicht dieselben, die einem ähnlichen Einzelbild in der Vergangenheit folgten. Genau das ist das Problem.

Wenn man also die einzelnen Bilder eines Films betrachtet, kann man sogar zu dem Schluss kommen, dass die Bilder zufällig sind, so wie viele davon überzeugt sind, dass der Markt sehr zufällig, wenn nicht sogar zu 100 % zufällig ist. Wir wissen, dass es Sinn macht, einen Film zu sehen, wir können sogar vorhersagen, was am Ende des Films passieren wird! Was ist also der Grund dafür? - Vielleicht liegt es daran, dass wir weiter blicken müssen, um globalere Muster zu untersuchen, die sich nie ändern - zum Beispiel habe ich einmal überprüft, wie viele % im Durchschnitt der Preis zurückgeht, und nun, es stellt sich heraus, dass etwa 30% (wenn ich mich richtig erinnere), aber der Punkt ist, dass diese Zahl fast die gleiche für alle TFs und für alle Instrumente (Währungspaare und Metalle, für CFD und andere habe ich nicht überprüft, aber es sieht aus wie es das gleiche ist)! Das ist erstaunlich. Dies ist genau die Art von konstanten Mustern, die man verwenden sollte, aber es ist oft einfacher, dies ohne neuronale Netze, Gerüste usw. zu tun, denn um MO zu verwenden, muss man in der Lage sein, die Bedeutung im Film zu erkennen, und das ist nicht einfach, wenn nicht überhaupt möglich.

 
Andrej Dik:

Und der Haken ist, dass das Bild nicht statisch ist. Es ist ein Film.

Hier eine weitere Analogie.

Fast jeder hat eine intelligente Tastatur in seinem Smartphone. Wenn Sie ein Wort eingeben, schlägt die Tastatur das nächste Wort vor. Das hängt von dem Wort und den vorher getippten Wörtern ab. Ich habe es ausprobiert, man kann sogar einen recht aussagekräftigen Text aus den von der Tastatur vorgeschlagenen Wörtern schreiben. Wörter sind Muster, eine Gruppe von Wörtern ist eine Gruppe von Mustern.

Aber diese Technologie wird auf dem Markt genauso machtlos sein wie die hier betrachteten MOs, denn auf dem Markt ändern sich die "Wörter" im Laufe der Zeit (die Reihenfolge und Kombination der einzelnen Buchstaben), und die Bedeutung der einzelnen "Wörter" ändert sich. Es bleibt nur ein höherer Sinn des gesamten Textes, der uns natürlich nicht zugänglich ist.

Jetzt wird man mich fragen: Was machen wir jetzt? - Ich weiß nicht, was ich mit MO machen soll, das Ergebnis wird trotzdem beschissen sein.

Oder sogar jemand wird sagen: "Du weißt einfach nicht, wie man MO kocht!" - Ich glaube, ich weiß es nicht. Aber wer weiß wie? Wer hat MO auf dem Markt nutzen können? Kennt jemand solche erfolgreichen Beispiele? Ja, jetzt wird das Beispiel von Batter angeführt, aber auch er hat in der Folgezeit versagt...

 
mytarmailS:

2) ok, aber warum ist die Wahrscheinlichkeit dann entgegengesetzt, eigentlich sollte es ein einfacher Zufall sein und nicht eine umgekehrte Korrelation

Haben Sie Vorschläge für die Darstellung von Netzdaten? Bitte teilen Sie diese mit uns, denn dafür sind wir alle hier.

Ich entschuldige mich für dieses umfangreiche Zitat, aber ich schreibe gerade von meinem Handy aus und die Bearbeitungsmöglichkeiten sind hier begrenzt. Sie können ein Zitat einfügen und dann nicht mehr zu einem sauberen Feld für Ihren Text zurückkehren. Auf einem PC ist dies leicht zu beheben, aber auf einem Telefon wird es ein Problem sein.
Zu Punkt 2: Ich stimme Ihnen zu, dass es sich um einen vollständigen Zufall handeln sollte, aber ich bin mir nicht sicher, ob der Zeitraum des Vorwärtstests, in dem Sie das umgekehrte Ergebnis erhalten haben, unmittelbar auf den Zeitraum folgt, in dem das Training durchgeführt wurde. Gibt es eine zeitliche Lücke zwischen diesen Zeiträumen? Normalerweise hört das Muster (wenn es auf dem Markt war) allmählich auf zu funktionieren: Das Gleichgewichtsdiagramm im Tester nimmt zuerst ab, und dann fällt es nach unten. Das Muster ist ausgereizt, es wird erkannt und viele Menschen beginnen, es auszunutzen. Aus diesem Grund wird es zu einem umgekehrten Muster. Wenn es jedoch eine logische (Markt-)Begründung für das Muster gibt, dann kann es nach einer Weile wieder funktionieren. Aber hier scheint mir folgendes richtig zu sein: Je länger die Regelmäßigkeit vorher funktioniert hat, desto länger wird die Zeit des "Vergessens" sein. Ich habe das aber noch nicht gründlich getestet.
Da ich nicht mit neuronalen Netzen arbeite, habe ich keine Ahnung, wie man Daten für das Training dieser Netze vorbereitet. Grafische(geometrische) Methoden sind mit dem Auge gut zu erkennen, aber sie sind schwer zu formalisieren. Im Moment arbeite ich an einem TS, der grafische Methoden verwendet. Wenn es meiner Meinung nach funktionierende Muster gibt, dann ist es hier.
Ich möchte noch einige Anmerkungen zu meinem vorherigen Beitrag machen. Es scheint, als hätte ich meine Analyse der einzelnen Takte dort verschärft. Aber in Wirklichkeit ist es nicht so. Die Analyse einzelner Balken hat ihre Daseinsberechtigung, aber diese Schlüsselbalken liegen meist nicht im Bereich von Tops.
Grund der Beschwerde: