ニューラルネットと入力 - ページ 39

 

アウトオブサンプルのモデリング品質。
*
* TruePositives: 83
* TrueNegative: 111
* 偽陽性:96
* FalseNegatives: 47
* 統計情報ありのサンプルのうち、パターン数合計:337
* 統計のないサンプルのうち、残りのパターン数:78
* アウトオブサンプルの総エラー数:143
* 汎化能力感度:46.36871508379888%。
* 汎化能力の特異性:70.25316455696202%。
* 一般化能力:16.621879640760895%。
* レシェトフによる指標:0.004123184591376475
*/
double x0 = 2.0 * (v0 - 19.0) / 35.0 - 1.0;
double x1 = 2.0 * (v1 - 12.26) / 57.8300000000005 - 1.0
double x2 = 2.0 * (v2 - 21.0) / 13.0 - 1.0
double x3 = 2.0 * (v3 - 12.11) / 24.3800000000003 - 1.0
double x4 = 2.0 * (v4 - 18.0) / 40.0 - 1.0
double x5 = 2.0 * (v5 - 11.61) / 58.5 - 1.0;
double decision = -0.03426154451479057 + 0.09136531101334192 * x0 -0.16115463032514218 * x1 + 0.3774761240476446 * x0 * x1 -0.1495363678863967 * x2 -0.2182655506670959 * x0 * x2 -0.686972851164288 * x1 * x2 -0.7274492971348857 * x0 * x1 * x2 -0.06979110777265085 * x3 + 0.0.0.0.0.0.0.1.0.0厘27356476016739995 * x0 * x3 -0.026662374360625248 * x1 * x3 + 0.12474514432879064 * x0 * x1 * x3 -0.2919894838501985 * x2 * x3 -0.2863737167793397 * x0 * x2 * x3 + 0.です。04656257824516221 * x1 * x2 * x3 + 0.11427907143112637 * x0 * x1 * x2 * x3 + 0.01709410880995815 * x4 + 0.21856958901169654 * x0 * x4 -9.を満たすこと。925957720785493E-4 * x1 * x4 + 0.9723342991021926 * x0 * x1 * x4 + 0.04599384769467396 * x2 * x4 -0.05459813284687198 * x0 * x2 * x4 + 0.5。37290192411918303 * x1 * x2 * x4 + 0.010296169116858033 * x0 * x1 * x2 * x4 + 0.058584612082841506 * x3 * x4 + 0.531371391780234 * x0 * x3 * x4 -0.0.0.です。025018778838931215 * x1 * x3 * x4 + 0.1861984476159817 * x0 * x1 * x3 * x4 + 0.07319097184962621 * x2 * x3 * x4 + 0.09688271273741818 * x0 * x2 * x3 * x4 + 01411041957291555 * x1 * x2 * x3 * x4 + 0.16417712916264263 * x0 * x1 * x2 * x3 * x4 -0.1726597989770004 * x5 + 0.36239224523375185 * x0 * x5 -0.008892292227349143328 * x1 * x5 -0.04417677147047251 * x0 * x1 * x5 -0.7319687377043317 * x2 * x5 -0.7806416997531924 * x0 * x2 * x5 + 0.です。012256322209106843 * x1 * x2 * x5 + 0.04393711771649319 * x0 * x1 * x2 * x5 -0.006563651321672569 * x3 * x5 + 0.06276424509067496 * x0 * x3 * x5 -0.0065636512220910686 * * x3 * x5 -0.0066764242450906649 * * x1 * x2 * x5 + 0.04393711771649319015999570769395857 * x1 * x3 * x5 -0.05302786422005222 * x0 * x1 * x3 * x5 + 0.03534892871195049 * x2 * x3 * x5 + 0.1463193475694817 * x0 * x2 * x3 * x5 -0.0.027476124047644598 * x1 * x2 * x3 * x5 + 0.052884787352004865 * x0 * x1 * x2 * x3 * x5 -0.018202954537325178 * x4 * x5 + 1.0 * x0 * x4 * x5 -0.0.07118968415781378 * x1 * x4 * x5 -0.003138748792788926 * x0 * x1 * x4 * x5 + 0.2624137067639589 * x2 * x4 * x5 -0.02015595378617162 * x0 * x2 * x4 * x5 + 0.です。08019279607969382 * x1 * x2 * x4 * x5 + 0.06399649461673285 * x0 * x1 * x2 * x4 * x5 -0.2596308616804378 * x3 * x4 * x5 + 0.です。18361769860857746 * x0 * x3 * x4 * x5 -0.08407017017920377723 * x1 * x3 * x4 * x5 + 0.03014271917587724 * x0 * x1 * x3 * x4 * x5 + 0.07432306756805093 * x2 * x3 * x4 * x5 + 0.0407019117116 * x1 * x3 * x5 + 0.0743230675680509320722895875809277 * x0 * x2 * x3 * x4 * x5 + 0.0075079586507851345 * x1 * x2 * x3 * x4 * x5 + 0.20670493972886933 * x0 * x1 * x2 * x3 * x4 * x5

複雑ですね......。データは従属変数をどの程度記述しているか?

 

トレーニングファイルを1つ提出しました。テスト間隔はまだありません :-( でも、それは問題ありません......。

そして、私が理解した限りでは、600点応募したのですが、337点の応募が必要でした。

ここでは、私の環境での結果を再現してみます。違うマシンでも、結果はどうなるんでしょうね。

ファイル:
 
また、データについては、クリーンなデータでネットワークを学習させるために、どのように持っていけばいいのか、よくわからないのですが......。学習サンプルからTruePositives: TrueNegatives: FalsePositives: FalseNegativesを選択し、ネットワークの学習を試みる方法です。どうなるか見てみましょう。受信データの正規化、良いことですね...。使い方がわからない...。ただ、見栄えをよくするために...。
 

結果は一致......。仮に83件の実例を見つけたとする。全サンプルからどのように切り離すか......。そして、この83枚のレコードを純粋に送り、自然に正常化させる。そして、この83の記録に対して、ネットワークが最小限の誤差で学習すればいい。そうすれば、(理論的には)入力ノイズの中にあるそのようなレコードを分類することができるようになる......。こんな感じで...。

 
nikelodeon:

トレーニングファイルを1つ提出しました。テスト間隔はまだありません :-( でも、それは問題ありません......。

そして、私が理解した限りでは、600点応募したのですが、337点の応募が必要でした。

ここでは、私の環境での結果を再現してみます。違うマシンでも、結果はどうなるんでしょうね。

VMRでは、全サンプルをトレーニング用とコントロール用に分けています。例えば,全サンプルが600例であれば,600 - 337 = 263例がトレーニングサンプルに含まれ,それに基づいてモデルが作成され(トレーニングされ),337例がコントロールサンプルに含まれ,それに基づいてモデルがテストされた(トレーニングされていない)ことを意味します.
nikelodeon
また、データについてですが、クリーンなデータでネットワークを学習させるために、どのように持っていけばいいのか、よくわからないのですが......。学習セットからTruePositives: TrueNegatives: FalsePositives: FalseNegativesを抽出してネットを学習させようとする方法です。
トレーニングセットから何かを抽出しても意味がない。学習用サンプルはモデルを作成するためだけのもので、モデルはこのサンプルに入らない他のデータに対するものなので、VMRはコントロールサンプルのみで全ての計算を行います。
 

実は、JPredictionは金融商品を予測するために作られたのではなく、翌月のシグナルの収益性を予測するために作られたのです。

つまり、トレード数、期間、月間利益率、利益トレードの割合、負けトレードの割合、利益率、シャープの比率など、現在のシグナルの特徴を含むサンプルを作成するのです。そして、1ヶ月待って、1ヶ月に1回、利益が出る取引と利益が出ない取引に印をつけます。

そして、このサンプルでモデルを学習させ、次の月のシグナルを予測するために使用します。

シグナルは、過去のデータに加え、さらに多くの有用な情報を持っているため、予測しやすいという考え方です。金融商品には、過去のデータ以外に追加的なデータはありません。

 
ウィザード、データを解釈するためにどのようなプログラムを使っているのですか?E-excelって?
 

そこで考えたのは......結果をどう解釈するか......もっと早く、確実に手作業で行うには......ということです。

 
Reshetov:

実は、JPredictionは金融商品を予測するために作られたのではなく、翌月のシグナルの収益性を予測するために作られたのです。

つまり、トレード数、期間、月間利益率、利益トレードの割合、負けトレードの割合、利益率、シャープの比率など、現在のシグナルの特徴を含むサンプルを作成するのです。そして、1ヶ月待って、1ヶ月以内に利益が出たシグナルには1マークを付け、利益が出なかったトレードには0マークを付けます。

そして、このサンプルでモデルを学習させ、次の月のシグナルを予測するために使用します。

シグナルは、過去のデータに加え、さらに多くの有用な情報を持っているため、予測しやすいという考え方です。金融商品には、過去のデータ以外に追加的なデータはありません。

私はその点を全面的に支持し、シグナルを出すインジケーターも持っています。同じトレードをする。JPredictionでも実行できそうな気がするのですが、トレーニング間隔の選び方がよくわかりません?また、各レコードのインジケータを計算したファイルを保存できると便利なのですが......Vizardでやっているように......。 そしてデータそのものを取得できるように.........。その上で、後で別のネットワークを学習させてみる......。それだけです。セイユウリ、これは計画的なのか?
 
一番困るのは、Excelもこのような長い数式をサポートしていないことです :-(