は完全にランダムなプロセスであり、FOREXは - ページ 5

 
D.Will писал (а):

乱数列を何度かシャッフルすることで、擬似乱数生成器の決定性を弱めることにしたんです。

シャッフル
for=1:1:10000
i1 = fix(rand*N)+1;))))
i2 = fix(rand*N)+1; ) )).
c=r(i1)です。
r(i1)=r(i2)とする。
r(i2)=cとする。

上の例では、全シークエンスを何度かシャッフルして、片方のシークエンスともう片方のシークエンスを表示しました。




そんな風にシャッフルすると、2のつかない8の字になる。燭台切りの紳士はどこだ!?
 
Korey:
D.Willは(a)を書きました。



一連の乱数をシャッフルして、擬似乱数生成器の決定性を低下させることにした。



シャッフル

for=1:1:10000

i1 = fix(rand*N)+1;))))

i2 = fix(rand*N)+1; ) )).

c=r(i1)です。

r(i1)=r(i2)とする。

r(i2)=cとする。



上の例では、全シークエンスを数回シャッフルして、片方のシークエンスともう片方のシークエンスを表示する例を挙げました。









そんな風にシャッフルすると、2のつかない8の字になる。燭台切りの紳士はどこだ!?
どうしたんですか?ランダムに2つのインデックスを選択し、中身を入れ替えた?

fix(rand*N)+1 は 1 から N までの整数を返す。Matlabでは、インデックスが1からになります。

ファック
 
rand はシーケンスを順次クリックします。インデックスは隣接する擬似生成数の組としてとらえる。
であり,それらは相関があることが知られている,つまり,ある期間内にある。
インデックスを取得する間にランダムな数の rand呼び出しを 行い、周期性を崩すようにします。
 
Korey:
rand はシーケンスを順次クリックします。インデックスは隣接する擬似生成数の組としてとらえる。

であり、それらは相関があることが知られている、すなわち、それらは期間m内にある。

周期性mを破るために、インデックスを取得する間にランダムな数の randコールを実行 するようにしてください。

これについては、すでに説明したとおりです。

このプリセットのポイントは他にあります。
このシリーズにさらに数字を足し算するような形で、変化があってもいいと思うんです。
しかし、その変化の性質はまったく異なる。

もし、ランドとパーミュテーションの相関が大きいと考えるなら、このようなジェネレータは何の価値もない。
お分かりになりますか?

擬似乱数とはいえ、乱数から乱数呼び出しの偏執的な挿入をするわけではありません。

は、PSGと相関のある分布を持つことになります。

実は、データを混ぜることで、配列の性質は変わらないのです。

どのような相関性の話ですか?
 
特にKoreyの場合

close all;

N=1000;
r=NORMRND(0,0.0077,1,N);

r1=r;

for i=1:1:100000
i1 = fix(rand*N)+1
for j=1:1:1000
rand;
end
i2 = fix(rand*N)+1
cr(i1);
r(i1)=r(i2);
r(i2)=c;
end;

figure;
%r=r-0を
指定します。5;
for i=2:1:length(r)
r(i)=r(i)+r(i-1);
r1(i)=r1(i)+r1(i-1);
end

grid on;

plot(r);
figure;
plot(r1);



Before





さらにカッコよくなりました =))






 
D.ウィルへ

ランダムな系列を形成する方法は、線形合同振動子のアルゴリズムと非常によく似ています。このアルゴリズム(およびその様々な修正版)がランダムな系列以外を生成することは、長い間証明されています。これは、「全体として」シーケンスを生成する場合にも、ランダムデータの生成器そのものにも当てはまります(備考:私の記憶違いでなければ、mathLabはこのようなアルゴリズムを実装していますが、これは簡単に確認 できます)。しかも、コンピュータができることは、ただ一つ、ランダムな配列を作ることだ。ニューラルネットワークの 利用は、この方向では有望で、人々はNSの助けを借りて、例えば「最大証明された確率変数」を得ることができ、企業にとっては、あらゆる種類の巧妙な博士論文を守ることができるのである。自己回帰予測モデルは、このような系列でうまく(統計的にうまくという意味で)機能するので、試してみるとよいでしょう。

 

相関関係、まさに相関関係。

J・フォーサイス数理計算のための 機械的方法
Knuth D.E. The Art of Programming.Vol.2のようです。
一般に、標準的な乱数列生成器は古くから不向きと認識されており、自分で書く必要がある場合は、自分で書くことになります。

 
grasn:
D.ウィルへ


ランダムな系列を生成する方法は、アルゴリズムに非常によく似ています
は、線形合同発電機に対してこのアルゴリズム(およびその
は、ランダムシリーズ以外の何物でもありません。この
を生成すること、そしてランダムデータ生成器そのものに関わることです。もっと見る
さらに、コンピュータができることはただ一つ、すなわち、ランダムな
シリーズになります。この方向で有望なのが、ニューラルネットワークと
を手に入れることができるのです。
そして、その過程で、あらゆる種類の巧妙な博士論文を守るのである。その上で
自己回帰モデルはうまく機能する(統計的にうまくいくという意味で)。
の予測は、実際に試してみて確認することができます。





カオス的な挙動をするニューラルネットワークがあるはずですが、リンクはありますか?
y(n+1)=a0*y(n)+b.noiseとする自己回帰型。♪具体的にどう良いの?
y(n+1)=a0*y(n)+a1*y(n-1) ....a5*y(n-5) + b.noiseで線形ニューロン+ノイズになる。何が良いのか?


ところで、この発言は、上記のようなプロセスが予測できるということでしょうか?
 

実は次のような意味で、kはサイクル数だと仮定しています。

i1 = fix(rand*N)+1
k=fix(rand*100000)+1
j=1:1:kの場合
ランドになります。
しゅうりょう
i2 = fix(rand*N)+1
c=r(i1)です。
r(i1)=r(i2)とする。
r(i2)=cとする。
を終了します。

 
D.Will писал (а):
グラサン
D.ウィルへ


ランダムな系列を生成する方法は、アルゴリズムに非常によく似ています
は、線形合同発電機に対してこのアルゴリズム(とその
は、ランダムシリーズ以外の何物でもありません。この
を生成すること、そしてランダムデータ生成器そのものに関わることです。もっと見る
さらに、コンピュータができることはただ一つ、すなわち、ランダムな
シリーズになります。この方向で有望なのが、ニューラルネットワークと
を得ることができます。
そして、その過程で、あらゆる種類の巧妙な博士論文を守るのである。その上で
自己回帰モデルはうまく機能する(統計的にうまくいくという意味で)。
の予測は、実際に試してみて確認することができます。





カオス的な振る舞いをするニューラルネットワークに違いない。
y(n+1)=a0*y(n)+b.ノイズとなる自己回帰的なもの。♪具体的にどう良いの?
y(n+1)=a0*y(n)+a1*y(n-1) ....a5*y(n-5) + b.noiseで線形ニューロン+ノイズになる。何が良いのか?


ところで、この発言は、上記のようなプロセスが予測できるということでしょうか?

しかし、すべてが秘密だからというわけではなく、インターネットで調べることが可能だと思います。

そういえば、あなたの発言は、上記のプロセスが予測できるということでしょうか?

私は、「自己回帰予測モデルは、このような系列でうまく(統計的にうまくという意味で)機能 するので、自分で試して見てください」と明確に書いたつもりです。

もう一度。ARモデルで非常によく(統計的に)予測されている、自分を納得させてみてください。私のささやかな理解では、あなたの世代では微々たるものです。これって模型?モデルでないことは、あなた自身が正しく指摘していることです。まず、モデルを作成する必要があります。まず、単純に、どんな初期条件でも「価格」がマイナスにならないことを保証する、という条件を考案すれば、そう単純ではないことが理解できるだろう。そしてそれを調査し、今やっていることは文字通りの意味でのデタラメである。自然界にも技術的にも、引用に似たプロセスはたくさんあります。Fibo、 レベルやその他の属性で、相場に似た一連のPIを 簡単に取得することができます。

追記:現象のニョロニョロを見つけたいのであれば、-フラクタル!!!。:о)