Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1538

[Gelöscht]  
mytarmailS:

dtw, Spektrumanalyse... ein Haufen...

Es ist mir gelungen, einen Algorithmus zu entwickeln, der dieselben Muster unabhängig von ihrer Größe erkennt, d. h. der Algorithmus betrachtet ein Diagramm und sieht das Muster sowohl im 1-Minuten- als auch im Wochenchart, wobei er nur ein Diagramm betrachtet, und er kann echte Vorhersagen machen, aber ich habe noch viel Arbeit

ich habe angefangen, über dtw zu lesen, aber ich weiß nicht, wie ich es auf ein finnisches Diagramm anwenden kann und wofür ich es brauche), aber es ist ein interessantes Thema, denke ich

 
Maxim Dmitrievsky:

ich habe angefangen, etwas über dtw zu lesen, habe aber nicht verstanden, wie man es auf Finanzreihen anwendet und warum ich es brauche), aber das Thema ist interessant, denke ich

Sprach- und Musikdateien werden mit dtw komprimiert, und sie sind auch VR

;)

[Gelöscht]  
Igor Makanu:

Sprach- und Musikdateien werden mit dtw komprimiert, die wiederum auch VR sind

;)

aber warum sollte man Finanzdateien mit dtw komprimieren :)

 
Maxim Dmitrievsky:

aber warum die Zeit vergeuden :)

Ich habe mich bereits mit diesem Thema befasst, in meinen eigenen Worten ausgedrückt, ist es in etwa so:

dtw ist ein geeigneter Algorithmus zur Komprimierung von BP - BP, nicht irgendwelche Daten - was auch immer

Nun, wenn wir wissen, wie man Daten richtig komprimiert - bekommen wir dann Pakete? - oder lassen Sie es Datenmuster sein - es sind diese Datenmuster, die es Ihnen ermöglichen, Spracherkennungsalgorithmen zu erstellen

So sehe ich den Einsatz vondtw

Im Prinzip kann man dtwauf finanzielle GP anwenden. Wenn es nach der Umwandlung keine Datenverluste gibt (d.h. eine umgekehrte Umwandlung ist möglich), dann ist es sinnvoll, es auf finanzielle GP anzuwenden, wie man sagt, aber was ist, wenn?

SZS: las vor ein paar Jahren einen Artikelhttps://habr.com/ru/post/135087/

[Gelöscht]  
Igor Makanu:

Nun, ich habe mich bereits mit diesem Thema befasst, in meinen eigenen Worten ausgedrückt, geht es in etwa so:

Hier liegt der Wert vondtw - es ist der richtige Algorithmus für die Komprimierung von BP - genau BP, nicht nur irgendwelche Daten.

Nun, wenn wir wissen, wie man Daten richtig komprimiert - bekommen wir dann Pakete? - oder lassen Sie es Datenmuster sein - es sind diese Datenmuster, die es Ihnen ermöglichen, Spracherkennungsalgorithmen zu erstellen

So sehe ich den Einsatz vondtw

Im Prinzip kann man dtwauf finanzielle GP anwenden. Wenn es nach der Umwandlung keine Datenverluste gibt (d.h. eine umgekehrte Umwandlung ist möglich), dann ist es sinnvoll, es auf finanzielle GP anzuwenden, wie man sagt, aber was ist wenn?

SZS: las vor ein paar Jahren einen Artikelhttps://habr.com/ru/post/135087/

Nun, wir können uns das später einmal ansehen, ja. Um die gleichen Muster aus den Rückgaben zu extrahieren mb

Andererseits ist es sinnlos, ein neuronales Netz zu haben.
 
Maxim Dmitrievsky:

Andererseits ist ein neuronales Netz nicht sinnvoll

Ich weiß nicht, ich habe es aufgegeben, das alles zu studieren, es ist interessant, aber imho sollte es einfachere Wege geben, um zu verstehen, was auf dem Markt los ist

über ns, nun Sie wissen, dass die Datenverarbeitung ist wichtiger als config oder ns-Typ, imho, dtw ist die korrekte Verarbeitung von BP ( wenn die Verarbeitung genau BP !!! ) es ist die Konsistenz der Daten, die wichtig ist !

etwa das gleiche dtw bei der Sprachverarbeitung - es kommt auf die Konsistenz / Reihenfolge der Buchstaben an ? ;)


UPD:

wenn in NS zu füttern bei der Ausbildung einfach ein Schiebefenster von BP-Daten (Bars), dann imho, ist es eine Illusion, dass durch die Eingänge von NS - genau wie wir 1,2,3 ... N Eingang zog, wird NS wahrnehmen, dass die Daten sequentiell zugeführt werden, wie wir wollen, innerhalb aller Eingänge werden vermischt werden, imho, wird es nicht ein Schiebefenster für NS sein

[Gelöscht]  
Igor Makanu:

Ich weiß nicht, ich habe es aufgegeben, dieses ganze Zeug zu studieren, es ist interessant, aber imho sollte es einfachere Wege geben, um zu verstehen, was auf dem Markt los ist

über NS, Sie wissen, dtw ist wichtiger als config oder Art von NS, imho, dtw ist die korrekte Verarbeitung von BP ( bei der Verarbeitung von BP !!! ) es ist die Konsistenz der Daten, die wichtig ist !

etwa das gleiche dtw bei der Sprachverarbeitung - es kommt auf die Konsistenz / Reihenfolge der Buchstaben an ? ;)

Soweit ich weiß, werden rekurrente und konvolutionäre neuronale Netze schon seit langem verwendet, aber ich kenne mich in diesem Bereich nicht aus. Zum Beispiel der seq2seq-Algorithmus (neuronale Sprachverarbeitung) von Google. Wird dtw vor diesem Hintergrund nicht blass aussehen, ich will mir nicht unnötig die Knöchel im Stuhl quetschen :)
 
Maxim Dmitrievsky:
Soweit ich weiß, werden rekurrente und hochpräzise neuronale Netze schon seit langem für diese Zwecke eingesetzt. Zum Beispiel der seq2seq-Algorithmus von Google. Würde dtw auf diesem Hintergrund nicht verblasst aussehen, ich möchte mir nicht unnötig lange die Knöchel im Stuhl quetschen :)

Ich habe über rekurrente und ultrapräzise, naja, sozusagen, gelesen, aber alle Beispiele sind wie üblich für die Bilderkennung, und da fangen sie an, Tricks mit der Palettenkompression zu machen, wie zum Beispiel

das Feedback ist sehr gut bei der Verarbeitung von Paletten und die Daten sind sehr nützlich für die Verarbeitung von Schriftarten und Bitmaps, es ist schwer, sie alle zu lesen.

[Gelöscht]  
Igor Makanu:

Ich habe über rekurrente und ultrapräzise, naja, sozusagen, gelesen, aber alle Beispiele sind wie üblich für die Bilderkennung, und da fangen sie an, Tricks mit der Palettenkompression zu machen, wie zum Beispiel

eeeeee heck, schallwellen sind näher an BP als bilder - auch nicht stationär, und bilder scheinen dort mehr zu verlieren, indem sie informationen während der verarbeitung komprimieren, als zu versuchen, sie wiederherzustellen - es ist, als ob der NS schneller und besser lernt

NLP und seq2seq sind für Sprachlaute und so weiter.
 
Maxim Dmitrievsky:
NLP und seq2seq, diese sind für Sprachlaute und so weiter

Ich habe davon noch nie etwas gehört, obwohl ich schon viel gelesen habe! Ich werde es mir morgen ansehen, danke.