Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2147

 
RStudio AI Blog: FNN-VAE for noisy time series forecasting
RStudio AI Blog: FNN-VAE for noisy time series forecasting
  • 2020.07.31
  • blogs.rstudio.com
This post did not end up quite the way I’d imagined. A quick follow-up on the recent Time series prediction with FNN-LSTM, it was supposed to demonstrate how noisy time series (so common in practice) could profit from a change in architecture: Instead of FNN-LSTM, an LSTM autoencoder regularized by false nearest neighbors (FNN) loss, use...
[Gelöscht]  
mytarmailS:

Dann haben Sie es nicht gesehen(, oder Sie haben es gesehen, aber nicht zugehört...


Kontext-Raum, wie wir denken, wie es in Code umgesetzt werden kann...

VAE , CNN ist das gleiche, aber als Sonderfälle der Erstellung von sekundären Attributen aus primären, sagt er, wie mit allen Daten zu arbeiten

Der Kontextraum wird durch Rekursionen und so weiter implementiert. Was hat er erfunden?

 
Maxim Dmitrievsky:

Da ist eine Menge Wasser drin, ich habe keinen Hinweis auf den Code gesehen.

12 Stunden Code) will er einfach das ganze Gehirn simulieren, nicht nur den Rechner, sondern auch den Speicher

[Gelöscht]  
mytarmailS:

Nun, es ist ein 12-Stunden-Thema) will er einfach das ganze Gehirn simulieren, nicht nur den Rechner, sondern auch das Gedächtnis.

das Gedächtnis wird durch latente Zustände in Wiederholungen modelliert

Ich glaube, er macht sich nur lustig.

 
Maxim Dmitrievsky:

Der Kontextraum wird durch Rekursionen usw. implementiert. Was hat er erfunden?

Ich will es nicht erklären, ich bin mir nicht sicher, ob ich es selbst verstehe ...

Vereinfacht ausgedrückt werden einige Transformationen auf Attribute angewandt, Milliarden von Transformationen (hallo MGUA), und wenn es eine Transformation gibt, die eine "richtige" Antwort auf Attribute gibt, dann haben wir einen "Kontext" gefunden, es gibt also Tausende von Kontexten und wir bewegen uns sozusagen in einen neuen Raum von Attributen (Kontexten)...

Und jetzt müssen wir nicht einmal mehr auf die primären Merkmale achten, die Erkennung basiert auf dem Kontext...


Warum sie 1000-mal besser ist als die heutige Technologie, müssen Sie sich das Video ansehen, aber glauben Sie mir, es lohnt sich, denn dieser Ansatz hat die Zukunft.

Er hat eine Menge Videos

[Gelöscht]  
mytarmailS:

Ich will es nicht erklären, ich bin mir nicht sicher, ob ich es selbst verstehe ...

Einfach ausgedrückt: Einige Transformationen werden auf Merkmale angewendet, Milliarden von Transformationen (hallo MGUA), und wenn es eine Transformation gibt, die eine "richtige" Reaktion auf Merkmale gibt, dann haben wir einen "Kontext" gefunden, es gibt also Tausende von Kontexten, und wir bewegen uns sozusagen in einen neuen Raum von Merkmalen (Kontexten)...

Und jetzt müssen wir nicht einmal mehr auf die primären Merkmale achten, die Erkennung basiert auf dem Kontext...


Warum sie 1000 Mal besser ist als die heutige Technologie, dazu ist ein Video erforderlich, aber glauben Sie mir, es lohnt sich, es anzusehen, denn diesem Ansatz gehört die Zukunft.

Er hat eine ganze Reihe von Videos.

Ich habe die Videos durchgeblättert... als ich zu irgendeinem Unsinn über Pyramiden kam, habe ich es ausgeschaltet.)

Soweit ich das verstanden habe, vertritt er eine Art Wellengehirntheorie. esoterisch, kurz gesagt.

Ich habe den Eindruck, dass er ein Schwätzer ist.

 
Maxim Dmitrievsky:

Ich habe die Videos durchgeblättert... als ich zu diesem Quatsch über Pyramiden kam, habe ich es ausgeschaltet ))

Ich habe den Eindruck, dass ich ein Schwätzer bin.

Schauen Sie nicht durch, aber sehen Sie sich die Videos an, natürlich nicht über Pyramiden. Ist es schlecht, dass der Mann vielseitig ist?

Er ist ein cooler Typ, er ist ein KI-Forscher...



Wenn Sie ein Raster auf SEALs trainieren

und ein Bild von einer zerkratzten Couch zeigen, wäre es okay, wenn es nicht im Klassenzimmer wäre.

Aber im Zusammenhang erkennt sie, dass es eine Katze gab. Und sie erklärt, wie und warum, und wir denken genau so, durch Zusammenhänge.

[Gelöscht]  
mytarmailS:

Blättern Sie nicht darin, sondern schauen Sie, aber nicht über die Pyramiden, natürlich. Was ist falsch daran, vielseitig zu sein?

Ein cooler Typ, ein KI-Forscher...

Was gibt es zu sehen? Wo sind die NS-Codes? Es ist uninteressant, sich eine Stunde lang verbalen Durchfall anzuhören.

 
Maxim Dmitrievsky:

Was gibt es zu sehen? Wo sind die NS-Codes? Eine Stunde verbaler Diarrhöe macht keinen Spaß.

Ich weiß nicht, ich habe alles mit offenem Mund gesehen...

Sogar die Pyramiden....

[Gelöscht]  
mytarmailS:

Ich weiß nicht, ich habe alles mit offenem Mund gesehen...

Sogar die Pyramiden....

es erinnerte mich an das Geschwafel eines Verrückten).