Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1923

 
mytarmailS:


Geht es nur mir so oder vermindern Sie die Dimension ohne Lehrer? Ich spreche von "uwot" (umap).

 
Vladimir Perervenko:

Geht es nur mir so, oder reduzieren Sie ohne Lehrer die Dimensionen? Ich spreche von "uwot" (umap).

Ja, nur ich verwende das Paket "umap".

 
mytarmailS:

Ja, aber ich verwende das Paket "umap".

Das macht keinen Sinn. Der Zweck der Konvertierung ist die Reduzierung der Dimensionalität auf einen Raum, der dem Zielraum entspricht. Außerdem sind dies die einzigen beiden Pakete, die die Möglichkeit bieten, neue Daten (gültig/Test) zu verarbeiten und nicht nur zu trainieren wie tSNE.

Nach der Transformation mit dbscan clustern. Die erhaltenen Cluster dienen als zusätzlicher Prädiktor für die einzuführenden Variablen. Es kann einige Abweichungen geben.

Viel Glück!

 
mytarmailS:

Ja, nur ich verwende das Paket "umap".

Wie lautet der Name der Methode selbst? Was ist das überhaupt? Ich würde es gerne in Python sehen.

eine Art von Amöbe und Zellleben auf den Bildern.

Der Magier zeigte übrigens ähnliche Verwandlungen. Er hatte Punkte, die sich zu Ellipsen dehnten und schrumpften, ich erinnere mich an so etwas.

 
Maxim Dmitrievsky:

Wie lautet der Name der Methode selbst? Was ist das überhaupt? In Python würde ich gerne sehen

Leben von Amöben und Zellen in Bildern

In Python hat das umap-Paket den gleichen Namen.

 
Vladimir Perervenko:

In Python das gleichnamige umap-Paket.

Danke, ich werde es mir ansehen.

 
Vladimir Perervenko:

Reduzieren Sie die Dimensionalität auf einen Raum, der Ihrem Ziel entspricht - das ist der Zweck der Transformation.

Wie machen Sie das, woher nehmen Sie diese Zielübereinstimmung und was meinen Sie damit?

Vladimir Perervenko:

Außerdem sind sie die einzigen beiden Pakete, die die Möglichkeit bieten, neue Daten (Valid/Test) zu verarbeiten und nicht nur zu trainieren wie tSNE.

Ich weiß, deshalb habe ich sie ja auch ausgewählt.

Vladimir Perervenko:

Nach der Transformation Clustering mit dbscan. Gewonnene Cluster als zusätzliche Prädiktoren zu den einzuführenden Variablen. Hier sind verschiedene Varianten möglich.

Ich weiß)) Ich schrieb über dbscan auf der vorherigen Seite )

Aber auch damit wird es mühsam, erstens mit Clustern herumspielen zu müssen und zweitens ist es zu langsam, um neue Daten zu erkennen.

Ich habe irgendwo gelesen - ob das Paket geplant ist oder in p-studio Trick erscheinen sollte - dass der Cluster manuell auswählbar sein wird, direkt mit der Maus, habe nicht davon gehört?

 
Maxim Dmitrievsky:

Danke, ich werde es mir ansehen.

Ich verwende es gerade, bzw. seinen Wrapper in R

 
mytarmailS:

Wie gehen Sie also vor, woher nehmen Sie diese Zielübereinstimmung und was meinen Sie damit?

Ich weiß, deshalb habe ich mich für dieses Paket entschieden.

Ich weiß)) schrieb auf der vorherigen Seite über dbscan )

Aber auch damit wäre es mühsam, denn erstens muss man mit den Clustern herumspielen, und zweitens ist es zu langsam, um neue Daten zu erkennen.

Ich habe irgendwo gelesen - oder das Paket ist geplant, zu tun oder in p-Studio-Chip erscheinen musste -, dass der Cluster manuell auswählbar sein wird direkt mit der Maus, habe nicht gehört, über sie?

Der Reihe nach:

Sie legen die Konstanten fest:

#---const-------------------------------
 evalq({
  n_n <- 15 L
  min_d <- 0.1
  n_c <- 3 L
  metr <- "euclidean" #"euclidean" (the default) "cosine" "manhattan"
  lr <- 0.75
  scale <- "none" 
  #               "none"
  #               "scale" or TRUE ,
  #               "maxabs" Center each column to mean 0, then divide each element by the maximum 
  #                         absolute value over the entire matrix.
  #               "range"
  init <- "spectral" # "spectral" # "normlaplacian". # "random".
  # "lvrandom". # "laplacian".  # "pca". # "spca".
}, env)

Um mit einem Lehrer zu unterrichten, müssen wir nur das Ziel y zur Formel hinzufügen und angeben, dass wir ein Modell zurückgeben müssen (ret_model = TRUE).

#-----superveised------------------
 evalq({
  y <- factor(denoiseX1pretrain$origin$y)
  origin.sumap <- umap(X = x, y = y, approx_pow = TRUE, n_neighbors = n_n, 
                       learning_rate = lr, min_dist = min_d, n_components = n_c, ret_model = TRUE,
                       metric = metr, init = init, n_threads = 4 L, scale = scale)
}, env)

Nach der Erstellung des Modells können wir die übrigen Teilmengen train/test/test1 der Ursprungsdatengruppe ebenfalls in dreidimensionale Teilmengen umwandeln. Nachfolgend finden Sie den Code

#---train--------------------------------
evalq({
  set.seed(1337)
  umap_transform(X = X1$train$x, model = origin.sumap, n_threads = 4 L, 
                 verbose = TRUE) -> train.sumap
}, env)
#---test--------------------------------
evalq({
  set.seed(1337)
  umap_transform(X = X1$test$x, model = origin.sumap, n_threads = 4 L, 
                 verbose = TRUE) -> test.sumap
}, env)
#---test1-------------------------------
evalq({
  set.seed(1337)
  umap_transform(X = X1$test1$x, model = origin.sumap, n_threads = 4 L, 
                 verbose = TRUE) -> test1.sumap
}, env)

Ersetzen Sie Ihr x/y und Sie erhalten dreidimensionale Daten, die in zwei Gruppen unterteilt sind. Entnommen aus einem unvollendeten Artikel. Ich habe irgendwo ein paar Bilder, aber ich kann sie nicht mehr finden. Wenn ich sie brauche, werde ich sie morgen suchen. Aber ich denke, Sie können Ihre bekommen.

Viel Glück!

 

Gefunden

resdimX1_Herkunft

Grund der Beschwerde: