記事"第三世代ニューラルネットワーク:深層ネットワーク"についてのディスカッション - ページ 3

 

続く。

4. 親和性伝播(AP)クラスタリング、http://dx.doi.org/10.1126/science.1136800 

> library(apcluster)
> d.apclus <- apcluster(negDistMat(r=2), x)
> cat("affinity propogation optimal number of clusters:", length(d.apclus@clusters), "\n")
affinity propogation optimal number of clusters: 34 (!?)
> heatmap(d.apclus)

5.クラスター数を推定するためのギャップ統計量。グラフィカルな

出力。ここでは2-10クラスターを試している:

> library(cluster)
> clusGap(x, kmeans, 10, B = 100, verbose = interactive())
Clustering k = 1,2,..., K.max (= 10): .. done
Bootstrapping, b = 1,2,..., B (= 100)  [one "." per sample]:
.................................................. 50 
.................................................. 100 
Clustering Gap statistic ["clusGap"].
B=100 simulated reference sets, k = 1..10
 --> Number of clusters (method 'firstSEmax', SE.factor=1): 6

6.高次元データの場合

#10  Also for high-dimension data is the pvclust library which calculates 
#p-values for hierarchical clustering via multiscale bootstrap resampling.
library(pvclust)
library(MASS)
> x.pc <- pvclust(x)
Bootstrap (r = 0.5)... Done.
Bootstrap (r = 0.6)... Done.
Bootstrap (r = 0.7)... Done.
Bootstrap (r = 0.8)... Done.
Bootstrap (r = 0.9)... Done.
Bootstrap (r = 1.0)... Done.
Bootstrap (r = 1.1)... Done.
Bootstrap (r = 1.2)... Done.
Bootstrap (r = 1.3)... Done.
Bootstrap (r = 1.4)... Done.
> plot(x.pc)
> lines(x.pc)
> pvrect(x.pc)
> seplot(x.pc, type="au")

> pvpick(x.pc)
$clusters
$clusters[[1]]
[1] "DX"  "ADX"

$clusters[[2]]
 [1] "DIp"    "ar"     "cci"    "cmo"    "macd"   "osma"  
 [7] "rsi"    "fastK"  "fastD"  "slowD"  "SMI"    "signal"

$clusters[[3]]
[1] "chv" "vol"


$edges
[1] 11 12 13

2~34(!?)まで異なる結果が出た。 pvclustを 使った最後の計算が最も妥当な結果だと思います。あとはこれをどうするかだ。

 

vlad1949

私は2から34まで(!?)異なる結果を得ました。 pvclustを 使った最後の計算では、最も妥当な結果が出たようです。さて、これをどうするか決めなければなりません。

親愛なるブラド!

私はあなたが説明したコードを理解することができませんでした。そこで、ステップ・バイ・ステップで教えてください。

クラスタリングの目的

予測変数のある集合から、特定のターゲット変数に関係および影響を持つものを選択します。さらに、各ターゲット変数(それらの集合ではなく、それぞれを強調します)は、クラス内の値の予測力を持ちます。例えば、"ロング・ショート "クラスでは、ある予測変数の値はロングとの関係が強く、ある予測変数の値はショートとの関係が強い。正の価格増分-負の価格増分」クラスでは、そのような特性を持つ予測値を 1 つも見つけることができなかったとすでに書きました。

したがって、クラスタリングは 個別の予測変数をクラスタに分離しなければならず、これが教師によるクラスタリングです。教師なしのクラスタリングは面白くない。

追記

この問題文は、rfのようなパッケージによって生成されるインポータンス値と類似していますが、例外なくすべての類似した値は使用できません。これらのアルゴリズムはすべて、クラス内のすべての値の選択的予測力を持たない予測変数の集合で問題なく動作します。

なんとなく

 
vlad1949:

マルチカレンシーのExpert Advisorでも問題はないと思います。もしExpert Advisorがマルチカレンシーであれば、マルチカレンシーのExpert Advisorではインジケーターによる制限がありますが、Expert Advisorでは何もないので、さらに便利です。マルチ EA の 場合、各 EA から R を呼び出すと R の新しいインスタンスが作成され、MT4 にはそのようなペアが 32 個もあります。

テスト。成功。確かに非常に遅い。

 
ディープ・ニューラル・ネットワークのアプリケーションの中で最も優れた実装のひとつを、画像分類の例で紹介 しよう。
MetaMind Vison Labs - General Image Classifier
MetaMind Vison Labs - General Image Classifier
  • www.metamind.io
This demo allows you to use a state-of-the-art classifier that can classify (automatically label) an unseen image into one of 1000 pre-defined classes. How can I use this? Just drag and drop your images into the "Upload Your Image" button or click it to select a file from your computer. You can also simply copy and paste the url of an...
 
レゼトフのものと、ここにあるものを比べられないのか
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

しかし、VMRはすでに人間よりはるかに強い その一節の 後、私はそれ以上読まなかった。

そして、比較するものがない。世界未知の理論やVMR(!?)は、ネットでも論文でも見たことがない。

 

vlad1949:


この一節(しかし、VMRはすでに人間よりはるかに強い)の 、私はそれ以上読まなかった。

私はパステルナークを読んでいないが、私は彼を非難する。

まあ、嫌なら読めと強制する人はいない。それはインターネットであって、義務教育の文学プログラムではない。

だから、読んでいないことを誰かに報告する必要はない。結局のところ、誰もがそのような報告を公表し始めたら、dyk no forum engineはそれに耐えられないでしょう。

vlad1949

それに比較するものがない。世界的に知られていない理論やVMR(!?)には、ネットでも記事でも会ったことがない。

大変な事件ですね。ご愁傷様です。
 
Reshetov:

したがって、 読んでもいないことを誰かに報告する必要は ない。 結局のところ、誰もがそのような報告を投稿し始めたら、どのフォーラムエンジンもそれに耐えられなくなるでしょう。

これ以上微妙なユーモアはない。:)
 

faa1947:
А нельзя ли сравнить то, что здесь, с тем, что здесь? У Решетова?

真面目な話である。ディープラーニング」というトピックと、ブログであげられ、「理論」と誇らしげに呼ばれているものを比較するのは真剣ではない。前者は2大大学の努力によって開発され、現在も開発が続いている。実用化に成功している。実際の実用的なプロジェクトで多くの人々によってテストされている。Rでの実装がある。ユーザーである私にとって、これは最も重要なことである。

もうひとつは、まだ実用化されていない一人の人間(おそらく才能あるプログラマー)の開発である。ブログで発言されたアイデアは生産的なものになりうるが、これは研究者のための仕事であって、ユーザー(トレーダー)のための仕事ではない。コメントを見てもわかるように、彼は自分の偉大な理論に対する誤解に腹を立てている。これは普通のことだ。すべての発明家がこのようなこと(誤解)に直面している。ところで、私は誰かを怒らせるつもりはなかった。

レシェトフ氏のトピックについては、彼のブログか別スレッドで議論しましょう(彼がそれを企画すればの話ですが)。

記事のテーマである「ディープ・ニューラル・ネットワーク」についての意見や考察は、ここで歓迎する。

悪しからず。

幸運を祈る。

 
vlad1949:
過剰反応した。申し出は撤回する。