L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1923

 
mytarmailS:


Sono solo io o state sminuendo la dimensione senza insegnante? Sto parlando di "uwot" (umap).

 
Vladimir Perervenko:

Sono solo io o ti stai riducendo dimensionalmente senza un maestro? Sto parlando di "uwot" (umap).

Sì, solo che io uso il pacchetto "umap".

 
mytarmailS:

Sì, solo che sto usando il pacchetto "umap".

Questo non ha senso. Ridurre la dimensionalità ad uno spazio che corrisponde al vostro spazio di destinazione è lo scopo della conversione. Inoltre questi sono gli unici due pacchetti che forniscono la capacità di gestire nuovi dati (validi/test) e non solo di allenarsi come tSNE.

Dopo la trasformazione, cluster con dbscan. I cluster ottenuti sono come un predittore aggiuntivo per le variabili da introdurre. Ci possono essere alcune varianti qui.

Buona fortuna

[Eliminato]  
mytarmailS:

Sì, solo che io uso il pacchetto "umap".

Qual è il nome del metodo stesso? Mi piacerebbe vederlo in python.

qualche tipo di ameba e vita cellulare nelle immagini.

Il mago ha mostrato trasformazioni simili, tra l'altro. Aveva dei punti che si allungavano e si restringevano in ellissi, mi ricordo qualcosa del genere.

 
Maxim Dmitrievsky:

Qual è il nome del metodo stesso? In Python vorrei vedere

un po' di vita di amebe e cellule in immagini

In Python il pacchetto umap ha lo stesso nome.

[Eliminato]  
Vladimir Perervenko:

In Python il pacchetto umap ha lo stesso nome.

Grazie, darò un'occhiata

 
Vladimir Perervenko:

Riducete la dimensionalità in uno spazio che corrisponde al vostro obiettivo - questo è lo scopo della trasformazione.

Bene, come lo fate, da dove prendete questa corrispondenza del target e cosa intendete con questo?

Vladimir Perervenko:

Inoltre sono gli unici due pacchetti che forniscono la possibilità di elaborare nuovi dati (validi/test) e non solo di allenarsi come tSNE.

Lo so, è per questo che li ho scelti.

Vladimir Perervenko:

Dopo la trasformazione clustering con dbscan. Cluster ottenuti come predittore aggiuntivo alle variabili da introdurre. Qui sono possibili delle varianti.

Lo so)) ho scritto su dbscan nella pagina precedente)

Ma anche con esso, sarà una seccatura, in primo luogo, con i cluster tutti la stessa necessità di giocare in giro e in secondo luogo, è troppo lento a riconoscere i nuovi dati.

Ho letto da qualche parte - se il pacchetto è previsto o nel trucco p-studio dovrebbe apparire - che il cluster sarà selezionabile manualmente, direttamente con il mouse, non l'ho sentito?

 
Maxim Dmitrievsky:

Grazie, darò un'occhiata.

Lo sto solo usando, o meglio il suo wrapper in R

 
mytarmailS:

Quindi come fate, da dove prendete questa corrispondenza di obiettivi e cosa intendete con questo?

Lo so, è per questo che ho scelto questo pacchetto.

Lo so)) ha scritto nella pagina precedente su dbscan )

Ma anche con esso, sarebbe una seccatura, in primo luogo, con i cluster tutti uguali, bisogna giocare e in secondo luogo, è troppo lento per riconoscere i nuovi dati.

Ho letto da qualche parte - o il pacchetto è previsto per fare o in p-studio chip doveva apparire - che il cluster sarà manualmente selezionabile direttamente con il mouse, non ha sentito parlare?

In ordine:

Si impostano le costanti:

#---const-------------------------------
 evalq({
  n_n <- 15 L
  min_d <- 0.1
  n_c <- 3 L
  metr <- "euclidean" #"euclidean" (the default) "cosine" "manhattan"
  lr <- 0.75
  scale <- "none" 
  #               "none"
  #               "scale" or TRUE ,
  #               "maxabs" Center each column to mean 0, then divide each element by the maximum 
  #                         absolute value over the entire matrix.
  #               "range"
  init <- "spectral" # "spectral" # "normlaplacian". # "random".
  # "lvrandom". # "laplacian".  # "pca". # "spca".
}, env)

Per insegnare con un insegnante dobbiamo solo aggiungere il target y alla formula e specificare che dobbiamo restituire un modello (ret_model = TRUE).

#-----superveised------------------
 evalq({
  y <- factor(denoiseX1pretrain$origin$y)
  origin.sumap <- umap(X = x, y = y, approx_pow = TRUE, n_neighbors = n_n, 
                       learning_rate = lr, min_dist = min_d, n_components = n_c, ret_model = TRUE,
                       metric = metr, init = init, n_threads = 4 L, scale = scale)
}, env)

Con il modello in atto possiamo convertire il resto dei sottoinsiemi train/test/test1 del gruppo di dati di origine in 3-dimensionali. Qui sotto c'è il codice

#---train--------------------------------
evalq({
  set.seed(1337)
  umap_transform(X = X1$train$x, model = origin.sumap, n_threads = 4 L, 
                 verbose = TRUE) -> train.sumap
}, env)
#---test--------------------------------
evalq({
  set.seed(1337)
  umap_transform(X = X1$test$x, model = origin.sumap, n_threads = 4 L, 
                 verbose = TRUE) -> test.sumap
}, env)
#---test1-------------------------------
evalq({
  set.seed(1337)
  umap_transform(X = X1$test1$x, model = origin.sumap, n_threads = 4 L, 
                 verbose = TRUE) -> test1.sumap
}, env)

Sostituisci la tua x/y e ottieni dati tridimensionali divisi in due gruppi. Tratto da un articolo non finito. Ho delle foto da qualche parte ma ora non riesco a trovarle. Se ne ho bisogno, li cercherò domani. Ma credo che tu possa ottenere il tuo.

Buona fortuna

 

Trovato

resdimX1_origine