トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2632 1...262526262627262826292630263126322633263426352636263726382639...3399 新しいコメント Aleksey Nikolayev 2022.04.21 12:52 #26311 elibrarius #:ツリーは各列をソートすることで分割を探します。 どうやら、できるだけ多くの列を取り、その中で使われていない行をNANで埋めるのがいいようです。NANを扱えるモデルなら。あるいは、-INF, 0, +INF...といったように、未使用の行がソート時に同じ側になるようにすることもできます。 これは多かれ少なかれ理解できることです。もっと工夫を凝らすとか、そういうのが欲しいですね。長さの異なるビデオシーンを扱うなど、新しいタスクがたくさんあります。 Aleksey Nikolayev 2022.04.21 12:55 #26312 mytarmailS #: どういうことですか?問題を説明する 例えば、私は分類器に、バー単位(あるいはジグザグパターンのリンク)の固定長ではなく、ある重要な瞬間から始まる価格の塊を入力させたいと考えています。 Maxim Dmitrievsky 2022.04.21 13:07 #26313 Aleksey Nikolayev #:例えば、価格の塊をバー単位(あるいはジグザグパターンのリンク単位)の固定長ではなく、ある重要な瞬間から始まるものとして分類器の入力に与えたいのです。 多対多のような再帰性ネットが適している mytarmailS 2022.04.21 13:11 #26314 Aleksey Nikolayev #:例えば、私は分類器に、バー単位(あるいはジグザグパターンのリンク)の固定長ではなく、ある重要な瞬間から始まる価格の塊を入力させたいと考えています。 連想ルールは 問題ないはずなので、例を示します。 set.seed(123) li <- list() for(i in 1:100){ li <- append(li, list(c(letters[sample(1:10,sample(5:10,1))] , sample(c("buy","sell"),1))) )} head(li) データはリストの形式であり,各行は任意の長さのオブザベーションを持つベクトルである. head(li) [[1]] [1] "c" "b" "f" "j" "e" "d" "i" "sell" [[2]] [1] "j" "e" "c" "h" "a" "sell" [[3]] [1] "i" "c" "h" "b" "g" "buy" [[4]] [1] "c" "d" "f" "a" "j" "e" "i" "h" "b" "g" "buy" [[5]] [1] "i" "g" "c" "d" "e" "buy" [[6]] [1] "f" "i" "b" "e" "g" "d" "c" "a" "h" "buy" アソシエーションルールの形でパターンを検索するコードです。 library(arules) model <- apriori(li, parameter=list(support=0.2, confidence=0.6, minlen=4, maxlen=5), appearance = list(rhs=c("buy","sell"), default="lhs")) inspect(model) 規程 inspect(model) lhs rhs support confidence coverage lift count [1] {e,f,j} => {buy} 0.23 0.6764706 0.34 1.166329 23 [2] {e,i,j} => {buy} 0.21 0.6176471 0.34 1.064909 21 [3] {b,e,j} => {buy} 0.23 0.6216216 0.37 1.071761 23 [4] {a,e,j} => {buy} 0.24 0.6857143 0.35 1.182266 24 [5] {e,h,j} => {buy} 0.22 0.6111111 0.36 1.053640 22 [6] {c,e,j} => {buy} 0.26 0.6666667 0.39 1.149425 26 [7] {e,g,j} => {buy} 0.23 0.6571429 0.35 1.133005 23 [8] {e,f,i} => {buy} 0.24 0.6153846 0.39 1.061008 24 [9] {b,e,f} => {buy} 0.22 0.6666667 0.33 1.149425 22 [10] {a,e,f} => {buy} 0.25 0.6756757 0.37 1.164958 25 [11] {c,e,f} => {buy} 0.24 0.6486486 0.37 1.118360 24 ... ... .. .. . このアルゴリズムでは、順序に関係なく要素間の関連性を探します... 順序を考慮したアルゴリズムもありますが、貪欲なんです。 あるいはもっと欲を言えば、recommenderlabという レコメンダーシステムがあるのですが、そこには手を出しませんでした。 Aleksey Nikolayev 2022.04.21 13:14 #26315 Maxim Dmitrievsky #:リカレントネットワークが適している、多対多のタイプ ありがとうございます、見てみます。 もちろん、アプローチの説明や比較など、何らかのレビューテキストが欲しいところです(希望して損はないです)。理論的には、どこかにそのような文章があるはずなのだが、今のところ見つかっていない。 Maxim Dmitrievsky 2022.04.21 13:31 #26316 Aleksey Nikolayev #:ありがとうございます、見てみます。もちろん、このテーマについて、アプローチの説明や比較などのレビューテキストも欲しいところです(希望して損はないです)。理論的には、どこかにそのような文章があるはずなのだが、今のところ見つかっていない。このようなネットワークで可変長の入出力について見たことがあるだけで、そこには踏み込まず、純粋にレビューです。 ワープロ、翻訳用 Aleksey Nikolayev 2022.04.21 14:10 #26317 mytarmailS #:連想規則が 機能するはずです。データをリストとして扱い,各行は任意の長さの観測値を持つベクトルです.アソシエーションルールという形でパターンを検索するコード規程このアルゴリズムは、要素の順序に関係なく、要素間の関連性を探します...順序を考慮したアルゴリズムもありますが、貪欲なんです。あるいは、もっと欲を言えば、recommenderlabという レコメンダーシステムがあるのですが、私は調べていません。 ありがとうございます、見てみます。 しかし、私たちの場合、順番は重要です。例えばSBは、増分をランダムに混ぜることで常に取得することができます。 また、以前ここで、逐次パターンマイニングとそこで発生する配列アライメントの問題について書かれていたように記憶していました。また、問題を解決するための方法の一つでもあるようです。ただし、配列が一つのクラスに属することは、必ずしも類似性を意味するものではありません。 mytarmailS 2022.04.21 14:18 #26318 Aleksey Nikolayev #:ありがとうございます、見てみます。しかし、私たちの場合、順番は重要です。例えば、増分をランダムにシャッフルしてSBを得ることは常に可能である。また、以前ここで逐次パターンマイニングや配列アライメント問題について書かれていたことを思い出しました。また、問題を解決するための方法の一つでもあるようです。ただし、配列が一つのクラスに属することは、必ずしも類似性を意味するものではありません。 では、 arulesSequence パッケージ mytarmailS 2022.04.21 18:51 #26319 市場からの金策に一石を投じた )) 私のテスターではキャピタルカーブ。 tslabに放り込んで、もっとよく見えるようにした。 相性が良さそうですね。 トレードに目を向けた。 極めて長いシッティングと曖昧な取引アルゴリズムで、まるでマニュアルトレーダーのように見ていたのですが...。 フォレストは確かに何も特定できませんでしたが、興味深く、勉強になりました ))) Dmytryi Voitukhov 2022.04.21 19:54 #26320 Maxim Dmitrievsky #:リカレントネットワークが適している、多対多型 役に立つかもしれない...再帰性のない多対多を持って います。そして、畳み込み層はありません。そして、ニューラルネットワークの仕組みを分析した上で、このモデルを選びました。私たちはここに共通項を探しているのですね。論 破する。 1...262526262627262826292630263126322633263426352636263726382639...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ツリーは各列をソートすることで分割を探します。
どうやら、できるだけ多くの列を取り、その中で使われていない行をNANで埋めるのがいいようです。NANを扱えるモデルなら。
あるいは、-INF, 0, +INF...といったように、未使用の行がソート時に同じ側になるようにすることもできます。
これは多かれ少なかれ理解できることです。もっと工夫を凝らすとか、そういうのが欲しいですね。長さの異なるビデオシーンを扱うなど、新しいタスクがたくさんあります。
どういうことですか?問題を説明する
例えば、私は分類器に、バー単位(あるいはジグザグパターンのリンク)の固定長ではなく、ある重要な瞬間から始まる価格の塊を入力させたいと考えています。
例えば、価格の塊をバー単位(あるいはジグザグパターンのリンク単位)の固定長ではなく、ある重要な瞬間から始まるものとして分類器の入力に与えたいのです。
多対多のような再帰性ネットが適している
例えば、私は分類器に、バー単位(あるいはジグザグパターンのリンク)の固定長ではなく、ある重要な瞬間から始まる価格の塊を入力させたいと考えています。
連想ルールは 問題ないはずなので、例を示します。
データはリストの形式であり,各行は任意の長さのオブザベーションを持つベクトルである.
アソシエーションルールの形でパターンを検索するコードです。
規程
このアルゴリズムでは、順序に関係なく要素間の関連性を探します...
順序を考慮したアルゴリズムもありますが、貪欲なんです。
あるいはもっと欲を言えば、recommenderlabという レコメンダーシステムがあるのですが、そこには手を出しませんでした。
リカレントネットワークが適している、多対多のタイプ
ありがとうございます、見てみます。
もちろん、アプローチの説明や比較など、何らかのレビューテキストが欲しいところです(希望して損はないです)。理論的には、どこかにそのような文章があるはずなのだが、今のところ見つかっていない。
ありがとうございます、見てみます。
もちろん、このテーマについて、アプローチの説明や比較などのレビューテキストも欲しいところです(希望して損はないです)。理論的には、どこかにそのような文章があるはずなのだが、今のところ見つかっていない。
このようなネットワークで可変長の入出力について見たことがあるだけで、そこには踏み込まず、純粋にレビューです。
ワープロ、翻訳用連想規則が 機能するはずです。
データをリストとして扱い,各行は任意の長さの観測値を持つベクトルです.
アソシエーションルールという形でパターンを検索するコード
規程
このアルゴリズムは、要素の順序に関係なく、要素間の関連性を探します...
順序を考慮したアルゴリズムもありますが、貪欲なんです。
あるいは、もっと欲を言えば、recommenderlabという レコメンダーシステムがあるのですが、私は調べていません。
ありがとうございます、見てみます。
しかし、私たちの場合、順番は重要です。例えばSBは、増分をランダムに混ぜることで常に取得することができます。
また、以前ここで、逐次パターンマイニングとそこで発生する配列アライメントの問題について書かれていたように記憶していました。また、問題を解決するための方法の一つでもあるようです。ただし、配列が一つのクラスに属することは、必ずしも類似性を意味するものではありません。
ありがとうございます、見てみます。
しかし、私たちの場合、順番は重要です。例えば、増分をランダムにシャッフルしてSBを得ることは常に可能である。
また、以前ここで逐次パターンマイニングや配列アライメント問題について書かれていたことを思い出しました。また、問題を解決するための方法の一つでもあるようです。ただし、配列が一つのクラスに属することは、必ずしも類似性を意味するものではありません。
市場からの金策に一石を投じた ))
私のテスターではキャピタルカーブ。
tslabに放り込んで、もっとよく見えるようにした。
相性が良さそうですね。
トレードに目を向けた。
極めて長いシッティングと曖昧な取引アルゴリズムで、まるでマニュアルトレーダーのように見ていたのですが...。
フォレストは確かに何も特定できませんでしたが、興味深く、勉強になりました )))
リカレントネットワークが適している、多対多型
役に立つかもしれない...再帰性のない多対多を持って います。そして、畳み込み層はありません。そして、ニューラルネットワークの仕組みを分析した上で、このモデルを選びました。私たちはここに共通項を探しているのですね。論 破する。