Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 585

 
Maxim Dmitrievsky:

Es ist schwer, den Handel auf diese Weise zu bewerten, denn es gibt auch eine Geschäftsdauer und Stop-Loss-Levels müssen zu allem anderen hinzugefügt werden, und das System trainiert sich selbst regelmäßig neu... also, es ist eine Vogelscheuche :)

Ja, ich habe ihn schon vor langer Zeit gesehen. An sich nicht schlecht, aber die Bewölkung ist nicht sehr geeignet für den Bau von TK.
 
Yuriy Asaulenko:
Ja, ich habe es schon lange gesehen. Das ist an sich nicht weiter schlimm, aber die Bewölkung selbst ist für den Aufbau des TS nicht sehr geeignet.

Sie können Signale verkaufen:)) Zugang über api, wenn das Modell ist cool

 

Sitzen. Lesen einer pdf-Datei der Monographie des Verteidigungsministeriums. Zitat:

Es stellt sich heraus, dass es auch keinen Grund gibt, zu zucken, NS scheint die beste Option zu sein.

 
Yuriy Asaulenko:

Sitzen. Lesen einer pdf-Datei der Monographie des Verteidigungsministeriums. Zitat:

Es stellt sich heraus, dass es auch keinen Grund gibt, zu zucken, NS scheint die beste Option zu sein.


Und ich las Haykin und schaute parallel dazu

Der Film ist atmosphärisch... was wird am Ende siegen? Proteinleben oder künstliches Leben, oder wird etwas dazwischen entstehen? :)

Übrigens sagen einige Quellen, dass probabilistische NN heutzutage en vogue sind. Mein Freund flüsterte... aber er weiß viel über sie, er nimmt an Google-Wettbewerben teil.

 
Maxim Dmitrievsky:

Und ich habe Heikin gelesen und mir

Der Film ist atmosphärisch... was wird am Ende siegen? Proteinleben oder künstliches Leben, oder wird etwas dazwischen entstehen? :)

Übrigens sagen einige Quellen, dass probabilistische NN heutzutage en vogue sind. Mein Freund sagt das ... aber er weiß viel darüber, er nimmt an Google-Wettbewerben teil.

Gestern bin ich auf Faltungs-NN gestoßen, die normalerweise für die Bilderkennung verwendet werden. Natürlich gibt es alle Hilfsmittel - Ausbildung, usw. Entwickelt für die Verwendung in Python.

Es gibt auch wiederkehrende usw., aber das ist noch nicht sehr interessant.

Da das Faltungsnetz nicht vollständig vernetzt ist, können wir die Anzahl der Neuronen ohne Leistungseinbußen stark erhöhen. Aber ich muss alle Details verstehen, ich bin noch nicht ins Detail gegangen.

Beliebte Beschreibung -https://geektimes.ru/post/74326/
Применение нейросетей в распознавании изображений
Применение нейросетей в распознавании изображений
  • 2005.11.09
  • geektimes.ru
Про нейронные сети, как один из инструментов решения трудноформализуемых задач уже было сказано достаточно много. И здесь, на хабре, было показано, как эти сети применять для распознавания изображений, применительно к задаче взлома капчи. Однако, типов нейросетей существует довольно много. И так ли хороша классическая полносвязная нейронная...
 
Yuriy Asaulenko:

Gestern habe ich eine NS-Faltung gefunden, die normalerweise für die Bilderkennung verwendet wird. Natürlich stehen alle Hilfsmittel zur Verfügung - Ausbildung usw. Entwickelt für die Verwendung in Python.

Es gibt auch wiederkehrende usw., aber das ist noch nicht sehr interessant.

Da das Faltungsnetz nicht vollständig vernetzt ist, können wir die Anzahl der Neuronen ohne Leistungseinbußen stark erhöhen. Aber ich muss noch ins Detail gehen - ich bin noch nicht dazu gekommen.

Beliebte Beschreibung -https://geektimes.ru/post/74326/

Nun, es ist tief, sie werden hauptsächlich für Bilder und Computer Vision verwendet. Man braucht viele Beispiele und Ebenen, damit es funktioniert. Die Architektur selbst kopiert das visuelle System

Probieren Sie PNN in Python aus, sie sind für die Vorhersage von Zeitreihen sinnvoller.

https://habrahabr.ru/post/276355/

Байесовская нейронная сеть — потому что а почему бы и нет, черт возьми (часть 1)
Байесовская нейронная сеть — потому что а почему бы и нет, черт возьми (часть 1)
  • 2029.02.16
  • habrahabr.ru
То, о чем я попытаюсь сейчас рассказать, выглядит как настоящая магия. Если вы что-то знали о нейронных сетях до этого — забудьте это и не вспоминайте, как страшный сон. Если вы не знали ничего — вам же легче, полпути уже пройдено. Если вы на «ты» с байесовской статистикой, читали вот эту и вот эту статьи из Deepmind — не обращайте внимания на...
 
Maxim Dmitrievsky:

Nun, das ist das Hinterland, sie werden hauptsächlich für Bilder und Computer Vision verwendet. Es braucht viele Beispiele und Schichten, damit es funktioniert. Die Architektur selbst kopiert das visuelle System

Suchen Sie stattdessen nach PNN-Python-Äquivalenten, die mir für die Vorhersage von Zeitreihen sinnvoller erscheinen.

https://habrahabr.ru/post/276355/

Noch einmal: Ich sage nichts voraus. Ich habe nur eine Klassifizierung.

Ich habe lange Zeit nach einem unvollständigen Netz gesucht. MLP ist gut, aber dort gehen alle Eingaben an jedes Neuron auf einmal. Ah, das ist genau das, was wir brauchen, damit nur 5-6 verschobene Eingaben an ein Neuron gehen, und das ist die Faltungs-NS.

Hier gibt es nichts Kompliziertes, und man braucht nur 100-150 Neuronen, so dass die Struktur einfach und schnell ist wie die MLP mit 60 Neuronen, da es weniger Eingaben von Neuronen gibt.

 
Yuriy Asaulenko:

Noch einmal: Ich sage nichts voraus. Ich habe nur eine Klassifizierung.

Ich habe lange Zeit nach einem unvollständigen Netz gesucht. MLP ist gut, aber alle Eingaben gehen an jedes Neuron auf einmal. Ah, das ist genau das, was wir brauchen, damit nur 5-6 verschobene Eingaben an ein Neuron gehen, und das ist die Faltungs-NS.

Hier gibt es nichts Kompliziertes, und wir brauchen nur 100-150 Neuronen, also ist die Struktur einfach, und die Geschwindigkeit wird wie bei einem MLP mit 60 Neuronen sein, auf Kosten einer geringeren Anzahl von Eingaben von Neuronen.


Nun, es gibt einen Klassifikator, und was hindert Sie daran, nach einem unvollständigen Klassifikator zu suchen. Das ist zum Beispiel genau das, was ich mag:

Ich möchte Screenshots von dem Buch machen :)


 
Yuriy Asaulenko:

Noch einmal: Ich sage nichts voraus. Ich habe nur eine Klassifizierung.

Ich habe lange Zeit nach einem unvollständigen Netz gesucht. MLP ist gut, aber alle Eingaben gehen an jedes Neuron auf einmal. Ah, das ist genau das, was wir brauchen, damit nur 5-6 verschobene Eingaben an ein Neuron gehen, und das ist die Faltungs-NS.

Hier gibt es nichts Kompliziertes, und wir brauchen nur 100-150 Neuronen, also ist die Struktur einfach, und die Geschwindigkeit ist ähnlich wie bei einem MLP mit 60 Neuronen, da die Anzahl der Eingaben der Neuronen geringer ist.

Die Idee, Faltungsschichten zu verwenden, köchelt schon seit langem. Ich denke, sie können gute Ergebnisse liefern.

Aber werfen Sie das mehrschichtige Perseptron nicht weg. Konvergierende Netze lernen nichts von selbst, sie liefern lediglich ein kompaktes Bild der Eingangsinformationen.

 
Maxim Dmitrievsky:

Es gibt einen Klassifikator, was hindert Sie also daran, nach einem unvollständigen zu suchen.

Versuchen Sie also, eine zu finden.) Eine solche MLP wäre optimal.
Grund der Beschwerde: