フォローアップのため - ページ 46

 
Mathemat >>:

Я считаю, что параметры контекста логично искать в тесной привязке к набору первичных альтернатив ("классу живого существа"). Мне не нравится хаотичный и бессистемный перебор этих параметров в надежде на то, что "когда-нибудь они как-нибудь срастутся". Бесперспективность такого подхода очевидна для меня, когда вижу очередную суперсистему, собранную, скажем, из MACD, Боллинджера, Стохастика и каналов с непонятно как подогнанными параметрами.

その通り...そして、そう思っているのは私たちだけではありません。

ソレント:古典的な指標を一旦忘れて、「原理的に、CRの動きにはどんな特性があるのか」を考えてみるのもいいかもしれませんね。

しかし、延々と哲学しているようでは、現実的ではありません。動き出さなければならないのです。

一つの高さを制圧し、わずかでも現実的な結果を得なければ、攻撃はより早く力尽きるだろう...。

33の益城はちょっとショックでしたね。

この「宿題」を骨抜きにしよう。特にデータは誰でも入手できる。

私の理解では、故障の原因は理想的な応答分布の二峰性だったと思うのですが......。

と断固として排除してきました。

このようなアルゴリズムが原始的なレベルで機能するのであれば、もっと広く応用してみたらどうでしょう。

 
MetaDriver >>:

2) Тупая система на двух машках - система в которую прошита жёсткая связь между входом и выходом, которая со временем не изменяется. Вроде как обучение отсутствует (0).

Но можно на эту систему взглянуть под таким углом - программист научил некую конструкцию реагировать торговой транзакцией на определённое соотношение положений машек.

Тогда вроде как имеем обучение-I. Здесь можно договориться как на это дело смотреть. Я бы лично предложил вторым способом.

Т.е. рассматриваем программу как (а) вначале ничего не умеющую (b) обучившуюся некой стимул-реактивной деятельности (вроде как у программиста :).

Это не строгое (в сущности неправильное) использование терминологии Бейтсона, однако мне оно представляется удобным.

ベイトソンの用語に完全に準拠することが私たちの目標ではありませんが、訓練の階層は文脈の階層に対応するという彼の言葉に注目したいと思います。機械的な 取引システムとの関連では、文脈の言語による分類(文脈の階層化)がより適切で、心を混乱させないかもしれません。

一般的には、クリエイティブなアプローチで、ある種のバイオセノシスを作ることは可能です。食物連鎖の最下層は、少なくとも同じマシュカに対して純粋に反射的に反応する原始的な存在である。ある種のbacterius speculatis :) ですが、Vladimirは この用語の専門家です :) 。

次のレベルは、前のレベルを糧にしなければならない。クリエーション・トップは、現時点でどの特定の時間枠を使うべきか、また、クロスした場合にどの方向に進むべきかを判断できる必要があります。レベルが高いほど、人口の波のスパンが小さくなるはずです。

ちなみに、リターンはそのような存在と考えることができ、その次のレベルはリターンを基に計算されたオシレーターによってインプットされる。

どのプライマリコンテキスト(マークアップ)がより有望かを事前に決めようとするのは間違いだと思います。百の色を咲かせよう。本当に(トレードの結果に)根本的な違いがない可能性も十分ありますね。個人的には、市場のフラクタル性はZZに最も対応していると考えていますが。

 
MetaDriver >>:
------------------------------------

Т.е. О-3 - это уже нечто качественно другое, это способность системы самостоятельно корректировать своё обучение-2.

Такую игрушку и хотелось бы в итоге построить, ничего "немыслимого" в этом не вижу, хотя это и не просто.

Собсно этим можно и заняться, после построения хороших моделей-2 - т.е. не способных к самостоятельному переобучению, но всегда готовых залезть во внешний оптимизатор и пооптимизироваться. :)

自己学習(自動最適化ではない)が可能で、十字架を振るなどのテンプレート化されたブランクを使用しないシステムのみが、このコンセプトに該当すると思われます。ウェービングパラメータを自動で変更することは、自動最適化になります。(青色でハイライトされています)。

モデル2の研究を進化させても、モデル3(黄色で囲った部分)に移行することはできません。

モデル-3にすぐに対応するか、全く対応しないか。「徐々に」対応することは不可能だからです。IMHO

 
MetaDriver писал(а)>>

最後に、文脈の分岐階層全体を作り、各末端文脈に様々な刺激に対する曖昧さのない反応 (例えば、手を振ったときの反応のような初歩的なもの)のテーブル全体を装備しても 、過学習-2にしかならない。

つまり、O-3は質的に異なるもので、システムが自らの学習-2を修正する能力である。

そのような玩具を結果的に作ってみたい、簡単ではないが「ありえない」ことはないと思っています。

実は、これは優れたモデル-2、つまり自己学習ができないが、常に外部のオプティマイザーに潜り込んで自己最適化できるようなモデルを構築してから行うことができるのである。:)

ユートピアハイライトという意味です。

1.これでは、EAのトレーニングには全くなりませんし、ましてやトレーニングになりません 2.これでは、EAのトレーニングにはなりません。

2)これは、基本的にあなた自身のトレーニング-2であり、それを比較的厳格なスキームで形式化し、Expert Advisorに入れようとしているのです。しかし、このベイトソン・トレーニング-2を行う能力はあるのだろうか?

3. 「文脈の枝分かれした階層全体を作る」ために、そして、それらのそれぞれに対して「単一値の反応の表全体を作る」ためには、方法、ツール、これらの文脈を識別する方法、効果的な反応を決定する方法などが必要である。持っていますか?何ですか?何を基準にしているのか?どこから来たのか?お持ちの方は、安心してこの記事を棚に上げてください。学習」しなくても、成功するEAを作ることは十分可能です。しかし、問題はそれがないことであり、頭から思いつくことはないでしょう。そして、ここでは記事は役に立ちません。

自己鍛錬はできないが、外部のオプティマイザーに乗り込んで常に最適化できる」プログラムについては、この良さは希少でも目標でもない。それにベイトソンは関係ない。

で、肝心の中身はどうなんだ?

そして肝心なのは、学習は正しい行動を目標としていることです。そして、正しい行動とは、外部の状況に対して正しい反応を選択することです。買う、売る、吸う、といった反応が決まっているのです。となると、あとは状況を十分に見極めるしかない。そして、私たちは再び

Mathemat>>書きました

つまり、一次候補(マッシュ、ZZ、Fibなどの内訳)のうち、少なくともO-IIまでの能力が豊かなのはどのセットかを事前に把握できるようにならなければならないという問題が発生する。

数学が 書いた(a) >>。

CCパラメータの見つけ方、選び方の原則を まず調べて、後で具体化するのが筋だと思います(おそらく、特別に作ったブランチの方がいいと思います)。まだ何も考えていません。 何ゆえ まだ探し方がわからないのですが、出てきてほしいです。すでにこれらの原則をお持ちの方は、一度話し合ってみてはいかがでしょうか。

私は、一次的な選択肢(「生物のクラス」)と密接に結びついた文脈パラメータを探すのが論理的だと思います。私は、これらのパラメーターを「いつかなんとか一緒になってくれるだろう」という希望を持って、無秩序に列挙することが好きではありません。MACD、ボリンジャー、ストキャスティクス、チャンネルなどのパラメータを未知の方法で適合させた別のスーパーシステムを見れば、このアプローチの無益さは明らかです。

そこで、再びパラメタリゼーションの問題に戻る。しかし、単独では成立しません。そして、ここでもアレクセイと 完全に同意見です。

パラメトリゼーションはモデルの結果であり、無作為に選んだ数字の集合ではありません。パラメトリゼーションはモデルの特性でもある。モデル内では、任意に変更することはできません。そして、パラメタリゼーションの成功は、モデルの妥当性によってすべて決定される。

なぜ、MACDやストキャスティックなどに回帰するのでしょうか?奇数なだけで、あまり意味がない。どなたか、少なくとも合理的な役割を果たすモデルを提案していただけませんか?そうでないなら、なぜその話をするのか?

 

はまた、無関心な観察者とヤジを飛ばす犬という二つの理想的なキャラクターに精神的に立ち戻ることを余儀なくされる。

旧・現在のジグザグに。

周期が15と200の2つのワイパーに。

-----

アナロジーはとてもシンプルで、ワイパーに「速い」「遅い」があるのは、何のためでもない。

これらは価格の振る舞いを特徴づけるものである。悪いことですか?

何がベストなのかを提案する...

家づくり」SCOではうまくいかないようです。

;).

 
Sorento >>:

Правильно. Но вот параметры контекста никто обсуждать не хочет...

彼はそうしたいのです。 でも、(あなたと同じように)恥ずかしがり屋です。 あるいは、ヒキガエルに首を絞められたか(私のように)。;)

 
Mathemat >>:

Sorento, эта ветка, пожалуй, давно превратилась в идейно-философскую. Здесь, вероятно, лучше обсуждать "широкие мазки" - то, что определяет "тренды", т.е. моду.

(1) Сложившееся направление этой ветке задавал не MetaDriver и не я, а вейсманисты-морганисты (хотя вначале она была узкоспециализированной).

(2) Думаю, что имеет смысл вначале поискать принципы поиска и выбора параметров КК, чтобы в дальнейшем конкретизировать их (наверно, лучше в специально созданной ветке). У меня пока нет никаких идей, как их искать, но надеюсь, что они появятся. Если эти принципы у Вас уже есть в голове, почему бы не обсудить их?

(3) Я считаю, что параметры контекста логично искать в тесной привязке к набору первичных альтернатив ("классу живого существа"). Мне не нравится хаотичный и бессистемный перебор этих параметров в надежде на то, что "когда-нибудь они как-нибудь срастутся". Бесперспективность такого подхода очевидна для меня, когда вижу очередную суперсистему, собранную, скажем, из MACD, Боллинджера, Стохастика и каналов с непонятно как подогнанными параметрами.

1.まあ私ならそんな毅然とした態度は取らないけど......。 ;)

2.同意見です。 もう一方の枝については...よくわかりません。どうでもいい(ほぼ)。

原理については、いくつか考慮すべき点があります。

- 位相空間の座標は、多かれ少なかれ直交しているはずです。(緩やかな相関関係)。

それらを有意義に探索するためには、指標の相互の「アイデアの直交性」(OI (c) me)を推定することを学ぶ必要がある。

例えば、平均を強調するマッシュと、極端な部分を強調するジグザグの対は、適切な組み合わせです。 適切なペアはたくさんありえます。検索基準は弱い(理想的にはゼロ)相関であることを忘れないようにしよう。

- 非直線的な指標は、(利益の面で)より多くの可能性を持っています。あるいは、リニアなものとの組み合わせ。(理屈っぽい)

// 検索エンジンを書くと良いのでは?より正確には、ペアの高速視覚的な推定を行う。 アイデアが熟成されたので、自分で落書きしてみようかな。発想はシンプルです。

// 入力には3つの行があります - 第1インジケータ(第1位相座標(1FK))、第2インジケータ(2FK)、現在から相対的に隣接する将来のコチエ

// ポイント(つまり、そのポイントでの「正しいBuy-Sell」)。 出力は平面図で、「正しいエントリー」のポイント(2色、一方は「買い」、もう一方は「売り」)が第1と第2の座標に沿ってプロットされます。

今のところ、それで十分です。

3. まだ考えています。検索を制限しない方がいいように思います。 検死でわかるようにしたほうがいい。:)

 
avatara >>:

1. Но бесконечно философствовать не прагматично. Нужно начинать двигаться.

2. Штурм выдохнется быстрее, если мы не одолеем ни одной высоты, и не получим пускай крохотный, но практический результат...

Машки с 33 немного шокировали меня.

Давайте разберём по косточкам это "домашнее задание". тем более, что данные может получить каждый.

Как я понял, источником разбиение послужила бимодальность распределения идеального отклика...

и она была решительно устранена.

3. Если подобный алгоритм работает на примитивном уровне, почему б его не попробовать применить шире?

1.有意義に動くことが望まれます。どこがいいのか、ご意見をお聞かせください。 (自分のを放り込んだ)。

2.まあ、結果オーライですよね。今、ソレントの話をしていたんです。そして、他のすべてのフィッティングシステムが原理的に同じことをして、パターンを選んでいることは明らかです。ニューラルネットを含む。

3.そういうことなんです。 ここがすべての始まりだった。 実は、ディスカッションの目的は(私だけではなく)、検索をシステム化することなんです。 そして、彼らが成功することにほとんど疑いはない。問題は、どの程度まで成功するかということだ。

 
joo >>:

1) Под эти понятия, пожалуй, попадают только Системы, способные к самостоятельному обучению (не автооптимизация), не использующие шаблонные заготовки типа пересечений машек.

2) Автозменение параметров машек будет автооптимизацией. (выделено синим)

3) Эволюционным развитием исследований моделей-2 не удастся перейти к моделям-3 (выделено жёлтым), так как всё равно придется отказаться от шаблонных понятий модели -2.

4) Либо сразу заниматься моделями-3, либо не заниматься вообще, т.к. к ним прийти "постепенно" невозможно. ИМХО.

1.自動最適化が対象外なのが理解できないのですが?刺激+文脈の組に対する反応の任意の独立した変化=学習-3。それが私の理解です。

2.そうなる。とはいえ、1.を参照。

3.おそらく。しかし、こう言われています。"瞑想せよ、友よ、瞑想せよ"。そう、もしあなたが悟りを開いたとしても、それは瞑想の結果として起こるのではありません。しかし、瞑想しなければ、それは決して起こりません。 実は、言われていることに賛同しているんです。 学習2の特性(特にその限界)を学ぶことは、学習3の強い触媒となるように思います。

4 絶対に必要なのか?

私の考えでは、それは何の根拠もない、ただの素っ頓狂な感情です。 一種のマキシマリズムですね。それは、"

- もしかして、分割で受けるんですか?- と、執念深いバラガノフが問いかける。

オスタップは、相手の顔をじっと見て、真剣に答えた。

- "部分的に "取り入れる でも、一度に全部必要なんです。"

 
avatara >>:

С СКО в "домашнем здании" не сложилось похоже..

;).


どういうことですか?