トレーディングにおけるニューラルネットワークの活用 - ページ 5 123456789101112...20 新しいコメント 削除済み 2009.03.21 17:35 #41 私は市場でニューラルネットワークを扱っているわけではありませんが、個人的には、単位分散による正規化よりも通常の線形正規化の方が、新しいデータでネットワークを再トレーニングする際に、新しいデータの潜在的なばらつきのギャップを変えずに、より良いものになると推測しています(もちろん、シリーズを中心に持ってくることはできませんが)。このような正規化では、重み付け係数を改善するのではなく、文字通りネットワーク内のすべてを変更しなければならない、つまり、単純にネットワークを再トレーニングしなければならない。しかし、それはあくまで推測に過ぎない。テストが必要なのです。 Ярослав 2009.03.22 01:32 #42 registred >> : 私は市場でニューラルネットワークを扱っているわけではありませんが、個人的には、単位分散による正規化よりも通常の線形正規化の方が、新しいデータでネットワークを再トレーニングする際に、新しいデータの潜在的なばらつきのギャップを変えずに、より良いものになると推測しています(もちろん、シリーズを中心に持ってくることはできませんが)。このような正規化では、重み付け係数を改善するのではなく、文字通りネットワーク内のすべてを変更しなければならない、つまり、単純にネットワークを再トレーニングしなければならない。しかし、それはあくまで推測に過ぎない。テストが必要なのです。 私は、24時間ごとに単純に再学習するネットワークを持っています。これがプラスなのかマイナスなのかはわかりません。でも、ファンクであればいい。 Sceptic Philozoff 2009.03.22 01:53 #43 Neutron >> : 任意の値から目的の分布(矩形)を得る方法を解析形式でPrivalに問い合わせる必要がある。 Privalychは今寝ていると思うので、私が代わりに答えますね。私はかつて、[0,1]上の一様分布のものをもとに正規値をモデル化したことがあります。同時に、一様分布の確率変数から積分ガウス関数の逆関数を計算する必要がありました。 つまり、正規分布の乱数から一様分布の乱数を得るためには、前者から積分ガウス関数を計算する必要があるのです。 例えて言えば、ランダムに分布する値から一様に分布する値を得るには、まず最初の値の積分分布関数を求め、それを次の値に当てはめればよいのです。あまり失敗していなければいいのですが。 Neutron 2009.03.22 06:36 #44 アレクセイ さん、こんにちは。 ゆっくり、はっきりさせましょう(特に私は)。 そこで、Y=A*exp{-a*X}の 形の指数関数的に 分布するSVを用意する。ここで、Xは NS入力に供給されるデータの振幅である。 我々は、入力データXの 数に対して作用し、+/-1区間での矩形分布を得ることができる魔法の関数f(x) を見つけたい。そのために、あなたはアドバイスします。 1.積分ガウスの 逆数と なる関数を求めよ。積分を求める:Z=-A/a*exp{-a*X}, 逆行列を求める: X=1/a*ln(-A/a/Z) これは望ましいf(x)=1/a*ln(-A/a/x) なのでしょうか? Sergey Fionin 2009.03.22 11:01 #45 sol писал(а)>> 私のネットワークは、24時間ごとに再トレーニングを行うだけです。それがプラスなのかマイナスなのかは分かりませんが。でも、今のところファンキーです。 MQLには入っていないんですね? Neutron 2009.03.22 14:21 #46 FION писал(а)>> MQLではないのですね? 私は、マーケットから出るたびにグリッドを再トレーニングしてから、再びマーケットに入るようにしています。 Sergey Fionin 2009.03.22 16:13 #47 Neutron писал(а)>> 私のグリッドは、マーケットが終了するたびに、新しいエントリーの前に再トレーニングされます。 ネットの構造、エントリーの数、再トレーニングにかかる時間、MQLや外部のソフトで、どのようなことをするのか? Neutron 2009.03.22 17:01 #48 MQLでは、数十行のコードと9kBのボリューム。 グリッド100/2/1、アーキテクチャは任意にスケーリング可能(隠れ層の数を含む)。ハイパータンジェントによる隠れ層/s、出力は買い/売り(サイン)を示す。約100msで再学習(リ・ラーニング)します。 一生懸命やっても、隠れ層のニューロンを増やしても、計算能力はあまり上がらず、学習はかなり難しくなってしまいます。おそらくこれらの特殊性は、特定のタスクに関連したものであり、結果は一般化できない。 Sergey Fionin 2009.03.22 17:24 #49 Neutron писал(а)>> MQLでは、数十行のコードと9kBのボリューム。 グリッド100/2/1、アーキテクチャは任意にスケーリング可能(隠れ層の数を含む)。ハイパータンジェントによる隠れ層/s、出力は買い/売り(サイン)を示す。約100msで再学習(リ・ラーニング)します。 一生懸命やっても、隠れ層のニューロンを増やしても、計算能力はあまり上がらず、学習はかなり難しくなってしまいます。おそらくこれらの特殊性は、特定のタスクに関連したものであり、結果は一般化できない。 アーキテクチャが任意にスケールする」とはどういうことでしょうか?私が理解する限り、アーキテクチャはネットワークの構造です。そしてスケーリングは、何らかのデータ配給機能を利用することです。100入力はちょっと多いですね。それとも、あなたの100は他のものですか? Sceptic Philozoff 2009.03.22 17:25 #50 Neutron писал(а) >> ゆっくり、はっきりさせましょう(特に私は)。 そこで、指数関数的に分布するSV よし、セルゲイ、ゆっくり悲しんでいこう。まず、一般的な定理を扱います。以下は、そのリンク です。定理24,25,26を参照。 注:Th 24は分布の密度 関数を扱います。 しかし、Th 25はまさにあなたが望んでいることを実現しており、分布関数に関するものです。 また、Th26の定理8も見てみましょう。 3番目の定理式は、まさに私が一様からガウスを得ようとしたときの話です。 そして、指数関数的に分布するものについては、その分布関数(積分)をきちんと求め、Th25を適用すればよいのです。 追伸:ところで、練習問題36の最後のフレーズ(「(注:誰もそんなふうに受け取らない)」)には面食らいました。そして、私、バカは、そうやって手に入れた(Codabaseにはstatfunctionsのライブラリがある)のですが...。 123456789101112...20 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
私は市場でニューラルネットワークを扱っているわけではありませんが、個人的には、単位分散による正規化よりも通常の線形正規化の方が、新しいデータでネットワークを再トレーニングする際に、新しいデータの潜在的なばらつきのギャップを変えずに、より良いものになると推測しています(もちろん、シリーズを中心に持ってくることはできませんが)。このような正規化では、重み付け係数を改善するのではなく、文字通りネットワーク内のすべてを変更しなければならない、つまり、単純にネットワークを再トレーニングしなければならない。しかし、それはあくまで推測に過ぎない。テストが必要なのです。
私は市場でニューラルネットワークを扱っているわけではありませんが、個人的には、単位分散による正規化よりも通常の線形正規化の方が、新しいデータでネットワークを再トレーニングする際に、新しいデータの潜在的なばらつきのギャップを変えずに、より良いものになると推測しています(もちろん、シリーズを中心に持ってくることはできませんが)。このような正規化では、重み付け係数を改善するのではなく、文字通りネットワーク内のすべてを変更しなければならない、つまり、単純にネットワークを再トレーニングしなければならない。しかし、それはあくまで推測に過ぎない。テストが必要なのです。
私は、24時間ごとに単純に再学習するネットワークを持っています。これがプラスなのかマイナスなのかはわかりません。でも、ファンクであればいい。
任意の値から目的の分布(矩形)を得る方法を解析形式でPrivalに問い合わせる必要がある。
Privalychは今寝ていると思うので、私が代わりに答えますね。私はかつて、[0,1]上の一様分布のものをもとに正規値をモデル化したことがあります。同時に、一様分布の確率変数から積分ガウス関数の逆関数を計算する必要がありました。 つまり、正規分布の乱数から一様分布の乱数を得るためには、前者から積分ガウス関数を計算する必要があるのです。
例えて言えば、ランダムに分布する値から一様に分布する値を得るには、まず最初の値の積分分布関数を求め、それを次の値に当てはめればよいのです。あまり失敗していなければいいのですが。
アレクセイ さん、こんにちは。
ゆっくり、はっきりさせましょう(特に私は)。
そこで、Y=A*exp{-a*X}の 形の指数関数的に 分布するSVを用意する。ここで、Xは NS入力に供給されるデータの振幅である。 我々は、入力データXの 数に対して作用し、+/-1区間での矩形分布を得ることができる魔法の関数f(x) を見つけたい。そのために、あなたはアドバイスします。
1.積分ガウスの 逆数と なる関数を求めよ。積分を求める:Z=-A/a*exp{-a*X}, 逆行列を求める: X=1/a*ln(-A/a/Z)
これは望ましいf(x)=1/a*ln(-A/a/x) なのでしょうか?
私のネットワークは、24時間ごとに再トレーニングを行うだけです。それがプラスなのかマイナスなのかは分かりませんが。でも、今のところファンキーです。
MQLには入っていないんですね?
MQLではないのですね?
私は、マーケットから出るたびにグリッドを再トレーニングしてから、再びマーケットに入るようにしています。
私のグリッドは、マーケットが終了するたびに、新しいエントリーの前に再トレーニングされます。
ネットの構造、エントリーの数、再トレーニングにかかる時間、MQLや外部のソフトで、どのようなことをするのか?
MQLでは、数十行のコードと9kBのボリューム。
グリッド100/2/1、アーキテクチャは任意にスケーリング可能(隠れ層の数を含む)。ハイパータンジェントによる隠れ層/s、出力は買い/売り(サイン)を示す。約100msで再学習(リ・ラーニング)します。
一生懸命やっても、隠れ層のニューロンを増やしても、計算能力はあまり上がらず、学習はかなり難しくなってしまいます。おそらくこれらの特殊性は、特定のタスクに関連したものであり、結果は一般化できない。
MQLでは、数十行のコードと9kBのボリューム。
グリッド100/2/1、アーキテクチャは任意にスケーリング可能(隠れ層の数を含む)。ハイパータンジェントによる隠れ層/s、出力は買い/売り(サイン)を示す。約100msで再学習(リ・ラーニング)します。
一生懸命やっても、隠れ層のニューロンを増やしても、計算能力はあまり上がらず、学習はかなり難しくなってしまいます。おそらくこれらの特殊性は、特定のタスクに関連したものであり、結果は一般化できない。
アーキテクチャが任意にスケールする」とはどういうことでしょうか?私が理解する限り、アーキテクチャはネットワークの構造です。そしてスケーリングは、何らかのデータ配給機能を利用することです。100入力はちょっと多いですね。それとも、あなたの100は他のものですか?
Neutron писал(а) >>
ゆっくり、はっきりさせましょう(特に私は)。
そこで、指数関数的に分布するSV
よし、セルゲイ、ゆっくり悲しんでいこう。まず、一般的な定理を扱います。以下は、そのリンク です。定理24,25,26を参照。
注:Th 24は分布の密度 関数を扱います。
しかし、Th 25はまさにあなたが望んでいることを実現しており、分布関数に関するものです。
また、Th26の定理8も見てみましょう。 3番目の定理式は、まさに私が一様からガウスを得ようとしたときの話です。
そして、指数関数的に分布するものについては、その分布関数(積分)をきちんと求め、Th25を適用すればよいのです。
追伸:ところで、練習問題36の最後のフレーズ(「(注:誰もそんなふうに受け取らない)」)には面食らいました。そして、私、バカは、そうやって手に入れた(Codabaseにはstatfunctionsのライブラリがある)のですが...。