Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3399

 
mytarmailS #:

Sie lassen sich gut verallgemeinern, weil sie auf Milliarden von Wortdatensätzen trainiert sind und wir Preise haben.

Was soll man einem Neuron beibringen, wenn es auf das Sprechen trainiert ist?

Und Sie können Ihre Neuronen nicht auf Preise trainieren, weil Sie eine Menge Visualisierungen brauchen.


Entweder weiß ich also etwas nicht, oder aber, was hat der LLM damit zu tun?

Vorontsov sagt in dem Video, Sie haben es gesehen. Über das Konzept der fundamentalen Modelle, ab der Stunde beginnt.

Ich fragte meine


 
Maxim Dmitrievsky #:

Vorontsov spricht im Video, Sie haben es gesehen. Über das Konzept der grundlegenden Modelle, beginnend um ein Uhr.

Oh, ich erinnere mich.

Es ist also eine Art Konzept, jede Information kann auf einen Vektor reduziert werden, er spricht von Einbettungen, ja, das stimmt.

Aber es ist nur ein Konzept, und LLM ist auf Texteinbettungen trainiert und nichts weiter, seine gesamte Struktur ist darauf trainiert.

Wenn Sie also beschließen, ihm Ihre eigenen OHLC-Einbettungen zu geben, wird nichts passieren )))


Sie müssen es von Grund auf auf verschiedene Einbettungen, verschiedene Aufgaben, verschiedene Ziele ... gleichzeitig trainieren, so dass es Text schreibt und zeichnet und spricht, usw... Multimodalität, in anderen Worten.

Und Sie wollen eine Neura, die Text kann und geben ihr OHLC )) es wird nicht funktionieren.

 
mytarmailS #:

Ah, schau, ich erinnere mich.

Es ist also eine Art Konzept, jede Information kann auf einen Vektor reduziert werden, er spricht von Eembedding, ja, das ist richtig.

Aber es ist nur ein Konzept, und LLM ist auf Texteinbettungen trainiert und nichts weiter, seine ganze Struktur ist darauf trainiert.

Wenn Sie also beschließen, ihm Ihre eigenen Einbettungen mit OHLC zu geben, wird nichts passieren)))

Eine Wissensdestillation kann stattfinden, wenn das Modell sein allgemeines "Wissen" auf Ihren Bereich überträgt. Ich weiß es nicht genau, aber es geht ungefähr so.

Es kann in Zahlen, Text, Bilder und sogar Ton und in Programmcode übersetzt werden.
 
Maxim Dmitrievsky #:

Wissensdestillation kann auftreten, wenn das Modell sein allgemeines "Wissen" auf Ihren Bereich überträgt. Ich bin mir nicht ganz sicher, aber es ist in etwa so.

Es wird nichts passieren.

Stellen Sie sich eine PCA vor, die mit einigen Daten trainiert wurde, das ist das Innenleben eines Neurons.

Wenn man nun unbekannte Daten hinzufügt, handelt es sich nur um eine Art isolierte Ansammlung von Punkten, die Neura noch nicht kennt und mit denen es nichts anzufangen weiß.

Sie wird das Wissen nicht übertragen, weil dieser Cluster in Koordinaten liegt, mit denen sie noch nie gearbeitet hat.

 
mytarmailS #:

Es wird nichts passieren.

Stellen Sie sich vor, die PCA wird auf einige Daten trainiert, das ist der Kern von Neira.

Wenn Sie unbekannte Daten hinzufügen, erscheinen diese einfach als eine Art isolierte Ansammlung von Punkten, die Neura noch nie gesehen hat und mit denen es nichts anzufangen weiß.

Sie wird das Wissen nicht übertragen, weil der Cluster in Koordinaten liegt, mit denen sie noch nie gearbeitet hat.

Nun, das ist es, was heutzutage alle tun, sie trainieren sie für ihre Aufgaben. Ich werde nach Beispielen suchen müssen.

Sie werden die Gewichte (Verknüpfungen) des Modells aktualisieren, nicht neue Punkte hinzufügen.
 
Maxim Dmitrievsky #:

Nun, das machen heutzutage alle, sie bilden sie für ihre eigenen Aufgaben aus. Ich werde nach Beispielen suchen müssen.

Sie aktualisieren die Gewichte des Modells und fügen keine neuen Punkte hinzu.

Du verstehst es nicht, ich lasse dich in Ruhe.

 
mytarmailS #:

Du verstehst es nicht. Ich überlasse es dir.

Ich verstehe es, aber so funktioniert es nicht. Es kodiert jede Information in semantische Vektoren, es spielt keine Rolle, welcher Art die Daten sind, es sind nur Symbole. Es kennt bereits alle diese Symbole, es ist die Reihenfolge, auf die es ankommt.

 
Ja, du störst nicht, es ist nur ein Thema zum "Ausprobieren" für die absehbare Zukunft :)
Grund der Beschwerde: