기고글 토론 "3세대 신경망: 심층 신경망" - 페이지 3

 

계속 진행합니다.

4. 선호도 전파(AP) 클러스터링에 대해서는 http://dx.doi.org/10.1126/science.1136800&nbsp 을 참조하세요 ;

> library(apcluster)
> d.apclus <- apcluster(negDistMat(r=2), x)
> cat("affinity propogation optimal number of clusters:", length(d.apclus@clusters), "\n")
affinity propogation optimal number of clusters: 34 (!?)
> heatmap(d.apclus)

5. 클러스터 수 추정을 위한 갭 통계. 멋진 그래픽을 위한 몇 가지 코드도 참조하세요.

출력 코드를 참조하세요. 여기서는 2-10개의 클러스터를 시도합니다:

> library(cluster)
> clusGap(x, kmeans, 10, B = 100, verbose = interactive())
Clustering k = 1,2,..., K.max (= 10): .. done
Bootstrapping, b = 1,2,..., B (= 100)  [one "." per sample]:
.................................................. 50 
.................................................. 100 
Clustering Gap statistic ["clusGap"].
B=100 simulated reference sets, k = 1..10
 --> Number of clusters (method 'firstSEmax', SE.factor=1): 6

6. 고차원 데이터의 경우

#10  Also for high-dimension data is the pvclust library which calculates 
#p-values for hierarchical clustering via multiscale bootstrap resampling.
library(pvclust)
library(MASS)
> x.pc <- pvclust(x)
Bootstrap (r = 0.5)... Done.
Bootstrap (r = 0.6)... Done.
Bootstrap (r = 0.7)... Done.
Bootstrap (r = 0.8)... Done.
Bootstrap (r = 0.9)... Done.
Bootstrap (r = 1.0)... Done.
Bootstrap (r = 1.1)... Done.
Bootstrap (r = 1.2)... Done.
Bootstrap (r = 1.3)... Done.
Bootstrap (r = 1.4)... Done.
> plot(x.pc)
> lines(x.pc)
> pvrect(x.pc)
> seplot(x.pc, type="au")

> pvpick(x.pc)
$clusters
$clusters[[1]]
[1] "DX"  "ADX"

$clusters[[2]]
 [1] "DIp"    "ar"     "cci"    "cmo"    "macd"   "osma"  
 [7] "rsi"    "fastK"  "fastD"  "slowD"  "SMI"    "signal"

$clusters[[3]]
[1] "chv" "vol"


$edges
[1] 11 12 13

2에서 34(!?)까지 다른 결과를 얻었습니다. pvclust를 사용한 마지막 계산이 가장 그럴듯한 결과인 것 같습니다. 이제 어떻게 할 것인지 결정해야 합니다.

 

vlad1949

2에서 34까지 다른 결과를 얻었습니다 (!?). pvclust를 사용한 마지막 계산에서가장 그럴듯한 결과 인 것 같습니다. 이제 나는 그것으로 무엇을할지 결정해야합니다.

친애하는 블라드!

나는 당신이 설명한 코드를 통과하지 못했습니다. 그래서 당신이 나를 단계별로 데려 갈 수 있다면.

클러스터링의 목적.

특정 예측 변수 세트에서 특정 대상 변수에 대한 관계와 영향력이있는 예측 변수를 선택합니다. 또한 각 대상 변수는 집합이 아니라 각각이 한 클래스 내의 값에 대한 예측력을 가지고 있음을 강조합니다. 예를 들어 '롱-숏' 클래스의 경우 일부 예측 변수 값은 롱과 더 관련이 있고 일부는 숏과 더 관련이 있습니다. 이미 "양수 가격 증가 - 음수 가격 증가" 클래스의 경우 이러한 속성을 가진 단일 예측자를 찾을 수 없다고 썼습니다.

따라서 클러스터링은 별도의 예측자를 클러스터로 분리해야 하며, 이것이 바로 교사가 있는 클러스터링입니다. 교사가 없는 클러스터링은 흥미롭지 않습니다.

추신.

이 문제 진술은 rf와 같은 패키지에 의해 생성된 중요도 값과 유사하지만 예외 없이 모든 유사한 값을 사용할 수 없습니다. 이러한 모든 알고리즘은 클래스의 모든 값에 대한 선택적 예측력이 없는 예측자 집합에서 잘 작동합니다.

어떻게든요.

 
vlad1949:

다중 통화 전문가 자문에는 문제가 없습니다. 다중 통화 전문가 자문가인 경우 다중 통화 전문가 자문에는 지표에 대한 제한이 있지만 전문가 자문에는 제한이 없기 때문에 훨씬 더 편리합니다. 다중 EA인 경우 각 EA에서 R을 호출하면 새 R 인스턴스가 생성되며 MT4에는 눈썹까지 32개의 쌍이 있습니다.

테스트 중입니다. 성공했습니다. 매우 느린 것은 사실입니다.

[삭제]  
누구나 이미지 분류의 예를 통해 현재까지 가장 잘 구현된 심층 신경망 애플리케이션 중 하나를 감상할 수 있습니다.
MetaMind Vison Labs - General Image Classifier
MetaMind Vison Labs - General Image Classifier
  • www.metamind.io
This demo allows you to use a state-of-the-art classifier that can classify (automatically label) an unseen image into one of 1000 pre-defined classes. How can I use this? Just drag and drop your images into the "Upload Your Image" button or click it to select a file from your computer. You can also simply copy and paste the url of an...
 
여기 있는 것과 여기 있는 것을 비교할 수 없나요? 레셰토프?
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

그 후(그러나 VMR은 이미 인간보다 훨씬 강합니다) 구절 이후에는더 이상 읽지 않았습니다.

그리고 비교할 것이 없습니다. 세상에 알려지지 않은 이론과 VMR(!?)을 인터넷이나 기사에서 만난 적이 없습니다.

 

vlad1949:


(그러나 VMR은 이미 인간보다 훨씬 강하다) 구절 이후에는더 이상 읽지 않았습니다.

나는 파스테르나크를 읽지 않았지만 그를 비난합니다 © 대중적인 말

글쎄, 당신이 무언가를 좋아하지 않는다면 아무도 당신에게 읽기를 강요하지 않습니다. 문학에 관한 의무적 인 학교 프로그램이 아니라 인터넷입니다.

따라서 읽지 않은 내용에 대해 누군가에게보고 할 필요가 없습니다. 결국 모든 사람이 그러한 보고서를 게시하기 시작하면 dyk no 포럼 엔진은이를 견딜 수 없습니다.

vlad1949:

그리고 비교할 것이 없습니다. 나는 인터넷이나 기사에서 세계적으로 알려지지 않은 이론과 VMR(!?)을 만난 적이 없습니다.

어려운 케이스입니다. 조의를 표합니다.
 
Reshetov:

따라서 읽지 않은 내용에 대해 누군가에게 신고할 필요는 없습니다. 결국 모든 사람이 그러한 보고서를 게시하기 시작하면 포럼 엔진이이를 견딜 수 없습니다.

5입니다! 더 미묘한 유머는 상상할 수 없습니다. :)
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

진지하게 말입니다. "딥 러닝"이라는 주제를 블로그에 제공되고 자랑스럽게 "이론"이라고 불리는 것과 비교하는 것은 심각하지 않습니다. 첫 번째는 두 개의 주요 대학의 노력에 의해 개발되었으며 계속 개발되고 있습니다. 성공적인 실제 실현이 있습니다. 실제 실제 프로젝트에서 많은 사람들에 의해 테스트되었습니다. R에 구현되어 있습니다. 사용자로서 저에게는 이것이 가장 중요한 것입니다.

두 번째는 아직 실제 구현에 이르지 못한 한 사람(아마도 재능 있는 프로그래머)의 개발입니다. 블로그에서 나온 아이디어는 생산적일 수 있지만 이는 사용자(트레이더)가 아닌 연구자를 위한 작업입니다. 댓글에서 그가 자신의 위대한 이론에 대한 오해로 인해 불쾌감을 느낀다는 것을 알 수 있습니다. 이것은 정상입니다. 모든 발명가는이 문제 (오해)에 직면합니다. 그건 그렇고, 나는 누구에게도 불쾌감을 줄 의도가 없었습니다.

다음은 제안입니다. 블로그 또는 별도의 스레드 (그가 구성하는 경우)에서 Reshetov의 주제에 대해 토론하십시오.

이 기사의 주제인 "심층 신경망"에 대한 의견과 고려 사항은 여기에서 환영합니다.

악의는 없습니다.

행운을 빕니다.

 
vlad1949:
제가 과민하게 반응했습니다. 제안을 철회합니다.