Discussion de l'article "Réseaux de neurones de troisième génération : Réseaux profonds" - page 3

 

A suivre.

4. Regroupement par propagation d'affinités (AP), voir http://dx.doi.org/10.1126/science.1136800&nbsp ;

> library(apcluster)
> d.apclus <- apcluster(negDistMat(r=2), x)
> cat("affinity propogation optimal number of clusters:", length(d.apclus@clusters), "\n")
affinity propogation optimal number of clusters: 34 (!?)
> heatmap(d.apclus)

5. Statistique de l'écart pour l'estimation du nombre de grappes. Voir aussi le code pour une belle sortie

graphique. Essai de 2 à 10 grappes ici :

> library(cluster)
> clusGap(x, kmeans, 10, B = 100, verbose = interactive())
Clustering k = 1,2,..., K.max (= 10): .. done
Bootstrapping, b = 1,2,..., B (= 100)  [one "." per sample]:
.................................................. 50 
.................................................. 100 
Clustering Gap statistic ["clusGap"].
B=100 simulated reference sets, k = 1..10
 --> Number of clusters (method 'firstSEmax', SE.factor=1): 6

6. Pour les données à haute dimension

#10  Also for high-dimension data is the pvclust library which calculates 
#p-values for hierarchical clustering via multiscale bootstrap resampling.
library(pvclust)
library(MASS)
> x.pc <- pvclust(x)
Bootstrap (r = 0.5)... Done.
Bootstrap (r = 0.6)... Done.
Bootstrap (r = 0.7)... Done.
Bootstrap (r = 0.8)... Done.
Bootstrap (r = 0.9)... Done.
Bootstrap (r = 1.0)... Done.
Bootstrap (r = 1.1)... Done.
Bootstrap (r = 1.2)... Done.
Bootstrap (r = 1.3)... Done.
Bootstrap (r = 1.4)... Done.
> plot(x.pc)
> lines(x.pc)
> pvrect(x.pc)
> seplot(x.pc, type="au")

> pvpick(x.pc)
$clusters
$clusters[[1]]
[1] "DX"  "ADX"

$clusters[[2]]
 [1] "DIp"    "ar"     "cci"    "cmo"    "macd"   "osma"  
 [7] "rsi"    "fastK"  "fastD"  "slowD"  "SMI"    "signal"

$clusters[[3]]
[1] "chv" "vol"


$edges
[1] 11 12 13

J'ai obtenu des résultats différents de 2 à 34 ( !?). Le dernier calcul avec pvclust me semble le plus plausible. Il nous faut maintenant décider de ce que nous allons en faire

 

vlad1949

J'ai obtenu des résultats différents de 2 à 34 ( !?). Dans le dernier calcul avec pvclust , il me semble que les résultats sont les plus plausibles. Je dois maintenant décider de ce que je vais en faire.

Cher Vlad !

Je n'ai pas réussi à comprendre le code que vous avez décrit. Donc, si vous pouvez me guider pas à pas.

L'objectif du regroupement.

À partir d'un certain ensemble de prédicteurs, sélectionner ceux qui ont une relation et une influence sur une variable cible spécifique. En outre, chaque variable cible, et j'insiste sur le fait qu'il s'agit de chaque variable et non d'un ensemble de variables, a un pouvoir prédictif pour une valeur à l'intérieur d'une classe. Par exemple, pour la classe "long-short", certaines valeurs prédictives ont plus de relation avec les longs, et d'autres avec les shorts. J'ai déjà écrit que pour la classe "augmentation de prix positive - augmentation de prix négative", je n'ai pas pu trouver un seul prédicteur qui aurait une telle propriété.

Il s'ensuit que le regroupement doit séparer un prédicteur distinct en grappes, ce qui constitue un regroupement avec un enseignant. Le regroupement sans professeur n'est pas intéressant.

PS.

Cet énoncé de problème présente des similitudes avec la valeur d'importance générée par des logiciels tels que rf, mais toutes les valeurs similaires ne peuvent pas être utilisées. Tous ces algorithmes fonctionnent bien sur des ensembles de prédicteurs qui n'ont pas le pouvoir prédictif sélectif de toutes les valeurs de la classe.

D'une certaine manière.

 
vlad1949:

Je ne vois aucun problème avec un conseiller expert multidevise. Si l'Expert Advisor est multidevise, c'est encore plus pratique, car il y a des restrictions avec les indicateurs dans l'Expert Advisor multidevise, mais il n'y en a pas dans l'Expert Advisor. S'il s'agit d'un EA multiple, l'appel de R à partir de chaque EA créera une nouvelle instance de R, et il y a 32 paires de ce type dans MT4 - jusqu'à mes sourcils.

Test. Succès. Il est vrai que c'est très lent.

[Supprimé]  
Chacun peut apprécier ici l'une des meilleures mises en œuvre d'applications de réseaux neuronaux profonds à ce jour avec l'exemple de la classification d'images.
MetaMind Vison Labs - General Image Classifier
MetaMind Vison Labs - General Image Classifier
  • www.metamind.io
This demo allows you to use a state-of-the-art classifier that can classify (automatically label) an unseen image into one of 1000 pre-defined classes. How can I use this? Just drag and drop your images into the "Upload Your Image" button or click it to select a file from your computer. You can also simply copy and paste the url of an...
 
Vous ne pouvez pas comparer ce qu'il y a ici avec ce qu'il y a ici ? chez Reshetov ?
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

Après cepassage (Mais VMR est déjà beaucoup plus fort que l'humain) , je n'ai pas lu plus loin.

Et il n'y a rien à comparer. Je n'ai pas rencontré la théorie inconnue du monde et le VMR( !?) ni sur Internet ni dans des articles.

 

vlad1949:


Après cepassage(Mais VMR est déjà beaucoup plus fort qu'un humain) , je n'ai pas lu plus loin.

Je n'ai pas lu Pasternak, mais je le condamne © Popular disant

Eh bien, personne ne vous oblige à lire si vous n'aimez pas quelque chose. C'est l'Internet, pas le programme scolaire obligatoire sur la littérature.

Il n'est donc pas nécessaire de signaler à quelqu'un ce que vous n'avez pas lu. Après tout, si tout le monde commence à publier de tels rapports, le moteur de dyk no forum n'y résistera pas.

vlad1949:

Et il n'y a pas de comparaison possible. Je n'ai pas rencontré la théorie mondialement inconnue et VMR( !?) ni sur l'Internet ni dans des articles.

C'est un cas difficile. Je vous présente mes condoléances.
 
Reshetov:

Il n' est donc pas nécessaire de signaler à quelqu'un quelque chose que vous n'avez pas lu. Après tout, si tout le monde commence à poster de tels rapports, aucun moteur de forum ne pourra le supporter.

Je ne peux pas imaginer un humour plus subtil. :)
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

Plus sérieusement. Il n'est pas sérieux de comparer le sujet "Deep Learning" avec ce qui est donné dans le blog et fièrement appelé "Theory". La première a été développée et continue de l'être grâce aux efforts de deux grandes universités. Il y a des réalisations pratiques réussies. Il a été testé par de nombreuses personnes sur des projets pratiques réels. Il existe une implémentation en R. Pour moi, en tant qu'utilisateur, c'est la chose la plus importante.

La seconde est le développement d'une seule personne (probablement un programmeur talentueux) qui n'a pas encore abouti à une mise en œuvre pratique. Les idées exprimées dans le blog peuvent être productives, mais il s'agit d'un travail pour les chercheurs, pas pour les utilisateurs (commerçants). Vous pouvez voir dans les commentaires qu'il est offensé par l'incompréhension de sa grande théorie. C'est normal. Tous les inventeurs y sont confrontés (incompréhension). Soit dit en passant, je n'avais pas l'intention d'offenser qui que ce soit.

Voici une suggestion : discutez du sujet de Reshetov dans son blog ou dans un fil de discussion séparé (s'il l'organise).

Les opinions et considérations sur le sujet de l'article - "Deep Neural Networks" - sont les bienvenues ici.

Sans vouloir vous offenser.

Bonne chance à tous

 
vlad1949:
J'ai réagi de manière excessive. Je retire mon offre.