Discussione sull’articolo "Reti neurali di terza generazione: Reti profonde" - pagina 3

 

Da continuare.

4. Clustering a propagazione di affinità (AP), vedere http://dx.doi.org/10.1126/science.1136800 

> library(apcluster)
> d.apclus <- apcluster(negDistMat(r=2), x)
> cat("affinity propogation optimal number of clusters:", length(d.apclus@clusters), "\n")
affinity propogation optimal number of clusters: 34 (!?)
> heatmap(d.apclus)

5. Statistica del gap per la stima del numero di cluster. Si veda anche un po' di codice per un bel

grafico. Provare con 2-10 cluster:

> library(cluster)
> clusGap(x, kmeans, 10, B = 100, verbose = interactive())
Clustering k = 1,2,..., K.max (= 10): .. done
Bootstrapping, b = 1,2,..., B (= 100)  [one "." per sample]:
.................................................. 50 
.................................................. 100 
Clustering Gap statistic ["clusGap"].
B=100 simulated reference sets, k = 1..10
 --> Number of clusters (method 'firstSEmax', SE.factor=1): 6

6. Per i dati ad alta dimensionalità

#10  Also for high-dimension data is the pvclust library which calculates 
#p-values for hierarchical clustering via multiscale bootstrap resampling.
library(pvclust)
library(MASS)
> x.pc <- pvclust(x)
Bootstrap (r = 0.5)... Done.
Bootstrap (r = 0.6)... Done.
Bootstrap (r = 0.7)... Done.
Bootstrap (r = 0.8)... Done.
Bootstrap (r = 0.9)... Done.
Bootstrap (r = 1.0)... Done.
Bootstrap (r = 1.1)... Done.
Bootstrap (r = 1.2)... Done.
Bootstrap (r = 1.3)... Done.
Bootstrap (r = 1.4)... Done.
> plot(x.pc)
> lines(x.pc)
> pvrect(x.pc)
> seplot(x.pc, type="au")

> pvpick(x.pc)
$clusters
$clusters[[1]]
[1] "DX"  "ADX"

$clusters[[2]]
 [1] "DIp"    "ar"     "cci"    "cmo"    "macd"   "osma"  
 [7] "rsi"    "fastK"  "fastD"  "slowD"  "SMI"    "signal"

$clusters[[3]]
[1] "chv" "vol"


$edges
[1] 11 12 13

Ho ottenuto risultati diversi da 2 a 34 (!?). L'ultimo calcolo con pvclust mi sembra il risultato più plausibile. Ora dobbiamo decidere cosa fare con esso

 

vlad1949

Ho ottenuto risultati diversi da 2 a 34 (!?). Nell'ultimo calcolo con pvclust mi sembra il risultato più plausibile. Ora devo decidere cosa fare con esso

Caro Vlad!

Non sono riuscito a capire il codice che hai descritto. Quindi, se puoi guidarmi passo per passo.

Lo scopo del clustering.

Da un certo insieme di predittori selezionare quelli che hanno una relazione e un'influenza su una specifica variabile target. Inoltre, ogni variabile target, sottolineo ogni, non un insieme di esse, ha potere predittivo per un valore all'interno di una classe. Ad esempio, per la classe "long-short", alcuni dei valori dei predittori hanno una maggiore relazione con i long e altri con gli short. Ho già scritto che per la classe "incremento di prezzo positivo - incremento di prezzo negativo" non sono riuscito a trovare un singolo predittore che abbia questa proprietà.

Ne consegue che il clustering deve separare un predittore separato in cluster, e questo è il clustering con un maestro. Il clustering senza un maestro non è interessante.

PS.

Questo problema ha delle somiglianze con il valore di importanza generato da pacchetti come rf, ma senza eccezioni tutti i valori simili non possono essere utilizzati. Tutti questi algoritmi funzionano bene su insiemi di predittori che non hanno un potere predittivo selettivo di ogni valore della classe.

In qualche modo.

 
vlad1949:

Non vedo alcun problema con un Expert Advisor multicurrency. Se l'Expert Advisor è multicurrency, è ancora più conveniente, perché ci sono restrizioni con gli indicatori nell'Expert Advisor multicurrency, ma non ce ne sono nell'Expert Advisor. Se si tratta di un EA multiplo, il richiamo di R da ogni EA creerà una nuova istanza di R, e ci sono 32 coppie di questo tipo in MT4 - fino alle mie sopracciglia.

Test. Con successo. È vero che è molto lento.

[Eliminato]  
Con l 'esempio della classificazione delle immagini è possibile apprezzare una delle migliori applicazioni di reti neurali profonde finora realizzate.
MetaMind Vison Labs - General Image Classifier
MetaMind Vison Labs - General Image Classifier
  • www.metamind.io
This demo allows you to use a state-of-the-art classifier that can classify (automatically label) an unseen image into one of 1000 pre-defined classes. How can I use this? Just drag and drop your images into the "Upload Your Image" button or click it to select a file from your computer. You can also simply copy and paste the url of an...
 
Non puoi confrontare quello che c'è qui con quello che c'è qui? Quello di Reshetov?
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

Dopo questopassaggio (Ma la VMR è già molto più forte di un umano) , non ho più letto.

E non c'è nulla con cui confrontarlo. Non ho incontrato la teoria del mondo sconosciuto e la VMR(!?) né su Internet né in articoli.

 

vlad1949:


Dopo questopassaggio(Ma la VMR è già molto più forte di un umano) non ho più letto.

Non ho letto Pasternak, ma lo condanno © Popular dicendo

Beh, nessuno ti obbliga a leggere se non ti piace qualcosa. È Internet, non il programma scolastico obbligatorio sulla letteratura.

Pertanto, non è necessario riferire a qualcuno ciò che non si è letto. Dopo tutto, se tutti iniziano a pubblicare tali rapporti, il motore di dyk no forum non resisterà.

vlad1949:

E non c'è nulla con cui confrontarlo. Non ho incontrato la teoria del mondo sconosciuto e VMR(!?) né su Internet né in articoli.

È un caso difficile. Mi dispiace per la sua perdita.
 
Reshetov:

Pertanto, non è necessario segnalare a qualcuno qualcosa che non si è letto. Dopotutto, se tutti cominciassero a inviare segnalazioni di questo tipo, nessun motore del forum sarebbe in grado di sopportarlo.

Sono 5! Non riesco a immaginare un umorismo più sottile. :)
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

In tutta serietà. Non è serio confrontare l'argomento "Deep Learning" con quello che viene dato nel blog e che viene orgogliosamente chiamato "Teoria". La prima è stata sviluppata e continua a essere sviluppata grazie agli sforzi di due grandi università. Ci sono realizzazioni pratiche di successo. È stato testato da molte persone su progetti pratici reali. Esiste un'implementazione in R. Per me, come utente, questa è la cosa più importante.

La seconda è lo sviluppo di una singola persona (probabilmente un programmatore di talento) non ancora portato all'implementazione pratica. Le idee espresse nel blog possono essere produttive, ma questo è un lavoro per ricercatori, non per utenti (commercianti). Dai commenti si evince che l'autore si sente offeso dal fraintendimento della sua grande teoria. Questo è normale. Tutti gli inventori devono affrontare questo (fraintendimento). A proposito, non avevo intenzione di offendere nessuno.

Ecco un suggerimento: discutete l'argomento di Reshetov nel suo blog o in un thread separato (se lo organizza).

Opinioni e considerazioni sull'argomento dell'articolo - "Deep Neural Networks" - sono benvenute qui.

Senza offesa.

Buona fortuna

 
vlad1949:
Ho reagito in modo eccessivo. Ritiro la mia offerta.