Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3008

 
mytarmailS #:

Wir sind mit dem Überschreiten der Ziele übrig, wir kommen langsam zu RL

Habe es schon bestanden :) der Schwachpunkt ist der Approximator, der nicht isolieren und dann verallgemeinern kann. Aber für die Allgemeinbildung ist er nützlich. Unterscheidet bei NS nicht zwischen quasi-nützlich und tatsächlich nützlich. Wegen des geringen Anteils an tatsächlich Nützlichem in den Daten. Es würde funktionieren, wenn man den Daten ein wenig Nützliches hinzufügt.

Entweder man folgt den effektiveren Innovationen und gehört zu den Ersten, die sie anwenden, bevor sie zum Mainstream werden, oder man fährt selbst Fahrrad.

Transformers hat nicht funktioniert, mal sehen, was sie sich noch einfallen lassen.
 
Maxim Dmitrievsky #:
Transformers hat nicht funktioniert, mal sehen, was sie sich noch einfallen lassen.

Du wirst zu alt sein, um zu warten.

 
mytarmailS #:

wirst du zu alt sein, um zu warten.

Ich hoffe nicht so sehr, ich schaue nur ab und zu. Nach allem, was gpt, sage ich Stagnation und Stillstand in diesem Thema voraus. Es sind keine Durchbrüche zu erkennen. Es ist nur ein Hype-Blitz, wie bei Krypto. Jetzt werden sie etwas Geld verdienen und sich beruhigen.
 
Maxim Dmitrievsky #:
Ich mache mir keine großen Hoffnungen, ich schaue nur ab und zu mal rein. Nach allem, was gpt, sage ich Stagnation und Stillstand in diesem Thema voraus. Es sind keine Durchbrüche zu erkennen. Ein reiner Hype, wie bei Krypto.

Ich habe die gegenteilige Ansicht.

Generell glaube ich, dass eine starke KI längst geschaffen wurde (nur nicht für uns) und die gesamte Kryptoindustrie (die ganze Welt) an ihrer Ausbildung gearbeitet hat, ohne es zu wissen.

 
mytarmailS #:

Ich bin der gegenteiligen Ansicht.

Ich glaube im Allgemeinen, dass eine starke KI längst geschaffen wurde (nur nicht für uns), und die gesamte Kryptoindustrie (die ganze Welt) hat an ihrer Ausbildung gearbeitet, ohne es zu wissen.

Dann ist die logische Frage: auf welcher Technologie. Wenn auf Transformers, dann ist es nicht AI überhaupt und wird nie in der Lage sein.
 
Maxim Dmitrievsky #:

Nicht klug, ich brauche keine Hilfe. Das Forum lenkt mehr ab, als dass es Hinweise gibt. Ich gebe nur meine Erfahrungen allgemein wieder. Manchmal verkaufe ich sie :) wer immer sie hört, wird Zeit sparen, indem er sie erbt.


Schilder zu übersehen ist eine fehlerhafte Taktik und sehr ineffektiv, das ist für mich schon ein Axiom. Ich würde gerne IMHO sagen, aber es ist mehr wie ein Axiom.

Und ich brauche Hilfe - ich denke mir mehr und schneller aus, als ich es im Code überprüfen kann.

Man braucht nicht nach Features zu suchen - man muss sie auswählen und richtig einrichten.

 
Aleksey Vyazmikin #:

Und ich brauche Hilfe - ich muss mir mehr und schneller einfallen lassen, als ich es im Code testen kann.

Man braucht kein Übermaß an Funktionen - man muss sie auswählen und richtig einrichten.

Nun, in der Fiktion ist es genau dasselbe. Sie lassen sich viel einfallen, haben keine Zeit, es aufzuschreiben :) und dann schneidet die Redaktion, vertreten durch Aleksey Nikolayev, alles zusammen.
 
Maxim Dmitrievsky #:
Dann lautet die logische Frage: mit welcher Technologie. Wenn es auf Transformers basiert, ist es keine KI und wird es auch nie sein.

Wer kann das schon sagen?

Aber die Technik muss so schlecht sein, wenn man die Rechenleistung der ganzen Welt braucht, von Mobiltelefonen bis zu einer Kryptofarm, die mit einem Kraftwerk verbunden ist...

Aber es gibt im Moment keine bessere Technologie.

 

Für mich klingt das einfach und trivial.

1. Ich selbst habe gearbeitet und arbeite: es gibt einen Lehrer und dazu ist es notwendig, die Zeichen aufzugreifen/zu verarbeiten.

2. Wie mytarmailS sagt, kann man die umgekehrte Aufgabe stellen: es gibt Zeichen und dazu muss man einen Lehrer finden/erstellen. Es gibt etwas, das ich daran nicht mag. Ich versuche nicht, diesen Weg zu gehen.


In Wirklichkeit sind beide Wege gleich: Der Klassifizierungsfehler für das verfügbare Lehrer-Eigenschafts-Paar sollte 20% außerhalb der Stichprobe nicht überschreiten. Vor allem aber sollte der theoretische Nachweis erbracht werden, dass sich die Vorhersagekraft der verfügbaren Merkmale in der Zukunft nicht oder nur geringfügig ändert. Dies ist das Wichtigste bei allen Dampfwalzen.


Ich möchte anmerken, dass meine Überlegungen nicht die Modellauswahl einschließen. Ich bin der Meinung, dass das Modell eine äußerst geringe Rolle spielt, da es nichts mit der Stabilität der Vorhersagekraft der Merkmale zu tun hat: Die Stabilität der Vorhersagekraft ist eine Eigenschaft des Lehrer-Eigenschafts-Paares.

1. Hat noch jemand ein Lehrer-Eigenschafts-Paar mit weniger als 20% Klassifikationsfehler?

2. Gibt es noch jemanden, der tatsächliche Beweise für eine Variabilität der Vorhersagefähigkeit der verwendeten Merkmale von weniger als 20 % hat?


Hat das jemand? Dann gibt es etwas zu diskutieren


Nein? Alles andere ist blah, blah, blah.

 
СанСаныч Фоменко #:

Das scheint mir einfach und trivial zu sein.

1. Ich selbst habe gearbeitet und arbeite: es gibt einen Lehrer und es ist notwendig, die Zeichen aufzunehmen/zu verarbeiten.

2. Wie mytarmailS feststellt, ist es möglich, die gegenteilige Aufgabe zu stellen: Es gibt Attribute und einen Lehrer dazu zu finden/zu erstellen. Irgendetwas daran gefällt mir nicht. Ich versuche nicht, diesen Weg zu gehen.


In Wirklichkeit sind beide Wege gleich: Der Klassifizierungsfehler für das verfügbare Lehrer-Merkmal-Paar sollte 20 % außerhalb der Stichprobe nicht überschreiten. Vor allem aber sollte theoretisch nachgewiesen werden, dass sich die Vorhersagekraft der verfügbaren Merkmale in der Zukunft nicht oder nur geringfügig ändert. Dies ist das wichtigste Kriterium bei allen Dampfwalzen.


Ich möchte anmerken, dass meine Überlegungen nicht die Modellauswahl einschließen. Ich bin der Meinung, dass das Modell eine äußerst geringe Rolle spielt, da es nichts mit der Stabilität der Vorhersagekraft der Merkmale zu tun hat: Die Stabilität der Vorhersagekraft ist eine Eigenschaft des Lehrer-Eigenschafts-Paares.

1. Hat noch jemand ein Lehrer-Eigenschafts-Paar mit weniger als 20% Klassifikationsfehler?

2. Hat jemand tatsächliche Beweise für eine Variabilität in der Vorhersagefähigkeit für die verwendeten Merkmale von weniger als 20 %?


Hat das jemand? Dann gibt es etwas zu diskutieren


Nein? Alles andere ist blah blah blah blah.

Ein Lehrer ist eine Reihe von Merkmalen und Etiketten, nicht das, was du geschrieben hast :) oder besser gesagt, es ist überhaupt eine Person, oder ein Algorithmus, der diese Daten generiert 😀

Die Wahl des Modells spielt eine Rolle, man muss ein starkes Modell wählen. Da aber alle starken Modelle die gleichen starken Eigenschaften haben, ist die Wahl zwischen ihnen bereits prinzipienlos.

Manchmal hilft es, die richtigen Definitionen zu kennen, um richtig zu denken.
Grund der Beschwerde: