Diskussion zum Artikel "Neuronale Netzwerke der dritten Generation: Tiefe Netzwerke" - Seite 3

 

Fortsetzung folgt.

4. Affinity Propagation (AP) Clustering, siehe http://dx.doi.org/10.1126/science.1136800 

> library(apcluster)
> d.apclus <- apcluster(negDistMat(r=2), x)
> cat("affinity propogation optimal number of clusters:", length(d.apclus@clusters), "\n")
affinity propogation optimal number of clusters: 34 (!?)
> heatmap(d.apclus)

5. Gap Statistic for Estimating the Number of Clusters. Siehe auch etwas Code für eine schöne grafische

Ausgabe. Versuchen Sie hier 2-10 Cluster:

> library(cluster)
> clusGap(x, kmeans, 10, B = 100, verbose = interactive())
Clustering k = 1,2,..., K.max (= 10): .. done
Bootstrapping, b = 1,2,..., B (= 100)  [one "." per sample]:
.................................................. 50 
.................................................. 100 
Clustering Gap statistic ["clusGap"].
B=100 simulated reference sets, k = 1..10
 --> Number of clusters (method 'firstSEmax', SE.factor=1): 6

6. Für hochdimensionale Daten

#10  Also for high-dimension data is the pvclust library which calculates 
#p-values for hierarchical clustering via multiscale bootstrap resampling.
library(pvclust)
library(MASS)
> x.pc <- pvclust(x)
Bootstrap (r = 0.5)... Done.
Bootstrap (r = 0.6)... Done.
Bootstrap (r = 0.7)... Done.
Bootstrap (r = 0.8)... Done.
Bootstrap (r = 0.9)... Done.
Bootstrap (r = 1.0)... Done.
Bootstrap (r = 1.1)... Done.
Bootstrap (r = 1.2)... Done.
Bootstrap (r = 1.3)... Done.
Bootstrap (r = 1.4)... Done.
> plot(x.pc)
> lines(x.pc)
> pvrect(x.pc)
> seplot(x.pc, type="au")

> pvpick(x.pc)
$clusters
$clusters[[1]]
[1] "DX"  "ADX"

$clusters[[2]]
 [1] "DIp"    "ar"     "cci"    "cmo"    "macd"   "osma"  
 [7] "rsi"    "fastK"  "fastD"  "slowD"  "SMI"    "signal"

$clusters[[3]]
[1] "chv" "vol"


$edges
[1] 11 12 13

Ich erhielt unterschiedliche Ergebnisse von 2 bis 34 (!?). Die letzte Berechnung mit pvclust scheint mir das plausibelste Ergebnis zu sein. Jetzt müssen wir entscheiden, was wir damit machen wollen

 

vlad1949

Ich habe unterschiedliche Ergebnisse von 2 bis 34 (!?). In der letzten Berechnung mit pvclust scheinen mir die Ergebnisse am plausibelsten zu sein. Jetzt muss ich entscheiden, was ich damit machen soll.

Lieber Vlad!

Ich habe es nicht geschafft, durch den Code zu kommen, den Du beschrieben hast. Wenn du mich also Schritt für Schritt führen könntest.

Der Zweck des Clustering.

Aus einer bestimmten Menge von Prädiktoren sollen diejenigen ausgewählt werden, die einen Zusammenhang und Einfluss auf eine bestimmte Zielvariable haben. Außerdem hat jede Zielvariable, ich betone jede, nicht eine Gruppe von ihnen, eine Vorhersagekraft für einen Wert innerhalb einer Klasse. D.h. für die Klasse "Long-Short" haben einige der Prädiktorwerte z.B. einen stärkeren Bezug zu Long-Werten und einige einen stärkeren Bezug zu Short-Werten. Ich habe bereits geschrieben, dass ich für die Klasse "positives Preisinkrement - negatives Preisinkrement" keinen einzigen Prädiktor finden konnte, der eine solche Eigenschaft aufweist.

Daraus folgt, dass das Clustering einen separaten Prädiktor in Cluster aufteilen muss, und das ist das Clustering mit einem Lehrer. Clustering ohne einen Lehrer ist uninteressant.

PS.

Diese Problemstellung hat Ähnlichkeiten mit dem Inportanzwert, der von Paketen wie rf erzeugt wird, aber ausnahmslos alle ähnlichen Werte können nicht verwendet werden. Alle diese Algorithmen funktionieren gut bei Gruppen von Prädiktoren, die nicht die selektive Vorhersagekraft aller Werte der Klasse haben.

Irgendwie.

 
vlad1949:

Ich sehe keine Probleme mit einem Expert Advisor mit mehreren Währungen. Wenn der Expert Advisor eine Mehrfachwährung ist, ist es sogar noch bequemer, weil es Einschränkungen mit Indikatoren im Expert Advisor mit Mehrfachwährung gibt, aber es gibt keine im Expert Advisor. Wenn es sich um einen Multi-EA handelt, wird beim Aufruf von R aus jedem EA eine neue Instanz von R erstellt, und es gibt 32 solcher Paare in MT4 - bis zu meinen Augenbrauen.

Testen. Erfolgreich. Es ist wahr, dass es sehr langsam ist.

[Gelöscht]  
Eine der bisher besten Implementierungen tiefer neuronaler Netze ist hier am Beispiel der Bildklassifizierung zu sehen.
MetaMind Vison Labs - General Image Classifier
MetaMind Vison Labs - General Image Classifier
  • www.metamind.io
This demo allows you to use a state-of-the-art classifier that can classify (automatically label) an unseen image into one of 1000 pre-defined classes. How can I use this? Just drag and drop your images into the "Upload Your Image" button or click it to select a file from your computer. You can also simply copy and paste the url of an...
 
Können Sie das, was hier ist, nicht mit dem vergleichen, was hier ist ? Mit dem von Reshetov?
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

Nach dieserPassage (Aber VMR ist schon viel stärker als ein Mensch) habe ich nicht weitergelesen.

Und es gibt nichts, womit ich es vergleichen könnte. Ich habe die weltbekannte Theorie und VMR(!?) weder im Internet noch in Artikeln kennengelernt.

 

vlad1949:


Nach dieserPassage(Aber VMR ist schon viel stärker als ein Mensch) habe ich nicht weitergelesen.

Ich habe Pasternak nicht gelesen, aber ich verurteile ihn © Popular Spruch

Nun, niemand zwingt dich zu lesen, wenn dir etwas nicht gefällt. Das ist das Internet, nicht das Pflichtprogramm der Schule für Literatur.

Deshalb ist es auch nicht nötig, jemandem zu berichten, was man nicht gelesen hat. Denn wenn jeder anfängt, solche Berichte zu veröffentlichen, wird dyk no forum engine das nicht aushalten.

vlad1949:

Und es gibt nichts, womit man es vergleichen könnte. Ich habe die weltbekannte Theorie und VMR(!?) weder im Internet noch in Artikeln kennengelernt.

Es ist ein schwieriger Fall. Mein Beileid für Ihren Verlust.
 
Reshetov:

Daher ist es nicht notwendig, jemandem etwas zu melden, was man nicht gelesen hat. Denn wenn jeder anfängt, solche Berichte zu schreiben, dann hält das keine Foren-Engine mehr aus.

das sind 5! Einen subtileren Humor kann ich mir nicht vorstellen. :)
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

Mal ganz im Ernst. Es ist nicht seriös, das Thema "Deep Learning" mit dem zu vergleichen, was im Blog angegeben und stolz "Theorie" genannt wird. Ersteres wurde und wird durch die Bemühungen zweier großer Universitäten entwickelt. Es gibt erfolgreiche praktische Umsetzungen. Es wurde von vielen Menschen an realen praktischen Projekten getestet. Es gibt eine Implementierung in R. Für mich als Anwender ist das das Wichtigste.

Das zweite ist die Entwicklung einer einzelnen Person (wahrscheinlich ein talentierter Programmierer), die noch nicht zur praktischen Umsetzung gebracht wurde. Ideen, die im Blog geäußert werden, können produktiv sein, aber das ist eine Arbeit für Forscher, nicht für Benutzer (Händler). Aus den Kommentaren geht hervor, dass er sich durch das Missverstehen seiner großartigen Theorie beleidigt fühlt. Das ist normal. Alle Erfinder sind damit konfrontiert (Missverständnisse). Übrigens hatte ich nicht die Absicht, jemanden zu beleidigen.

Hier ist ein Vorschlag: Diskutieren Sie Reshetovs Thema in seinem Blog oder in einem separaten Thread (wenn er es organisiert).

Meinungen und Überlegungen zum Thema des Artikels - "Deep Neural Networks" - sind hier willkommen.

Nichts für ungut.

Viel Erfolg!

 
vlad1949:
Ich habe überreagiert. Ich ziehe mein Angebot zurück.