初期ウェイト係数が入力パターンから大きく離れているニューロンは、どんなに長い間トレーニングを続けても、決して競争に勝つことはない
これは非常に優秀で、解くのも非常に簡単だ。教える入力からランダムに入力を選んでネットワークを初期化するだけだ。
Комбинатор:
非常に優秀で、解くのも非常に簡単だ。教える入力からランダムに選んでネットワークを初期化するだけだ。
接続や修正がどの程度難しいか、批判を聞きたい(できるだけこの点を強調したつもりだ)。
非常に優秀で、解くのも非常に簡単だ。教える入力からランダムに選んでネットワークを初期化するだけだ。
Комбинатор:
非常に優秀で、解くのも非常に簡単だ。教える入力からランダムに入力を選んでネットワークを初期化するだけだ。
古いニューロンを置き換える新しいニューロンは、私たちから離れた後、古いニューロンをその場所に簡単に戻す)。
非常に優秀で、解くのも非常に簡単だ。教える入力からランダムに入力を選んでネットワークを初期化するだけだ。
計算や地図を描くことは問題ではない。今日、このテーマに関する仕事はたくさんある。
どこに、どのような能力で適用するのか?クラスタリング?もっと確実な方法がある。
私自身は、トレーディングに有用なアプリケーションを見つけたことはない。
しかし、プログラミングの練習としては役に立つだろう。
著者の努力を最小限にすることなく。
幸運を祈る。
Vladimir Perervenko:
だから情報を共有しよう。
計算や地図を描くことは問題ではない。今日、このテーマに関する仕事はたくさんある。
どこに、どのような能力で適用するのか?クラスタリング?もっと信頼できる方法がある。
Pyyx:
だから情報を共有する。
もっと具体的に。何の情報なのかはっきりしない。
だから情報を共有する。
ロバチェフスキーがどのようにして球面幾何学を考え出したかを思い出す必要がある。
Vladimir Perervenko:
質問をもっと具体的にしてください。どのような情報について話しているのか明確ではありません。
質問はクラスタリングと特許の検索についてです。
質問をもっと具体的にしてください。どのような情報について話しているのか明確ではありません。
結果を表示する実装にはいくつか欠点がある......。
統計をテストしてみたところ、このようになりました:
1行目の左から2番目のマスの状況に少し驚きました。2番と3番の値。どうしてこのような色表示の硬い/鋭い遷移が可能なのでしょうか?例えば、左の1列目の1マス目-値#14と#18の間は、色の遷移がスムーズです。
それから、絵の下のカラーパレットに描かれているように、左から右へ、あるいは右から左へ、どこでも一貫した色の遷移があります。そして、ここでは色の飛び越えがある。
統計をテストしてみたところ、このようになりました:
それから、絵の下のカラーパレットに描かれているように、左から右へ、あるいは右から左へ、どこでも一貫した色の遷移があります。そして、ここでは色の飛び越えがある。
Viktor Vasilyuk:
結果を表示する実装にはいくつか欠点がある......。 統計をテストしてみたら、こんな結果が出た:
左の1行目の2マス目の状況にちょっと驚いた。2番と3番の値だ。どうしてこのような色の変化が起こるのだろうか?例えば、左の1列目の1マス目。#14と#18の間にはスムーズな色の遷移がある。
それから、絵の下のカラーパレットに描かれているように、左から右へ、あるいは右から左へ、どこでも一貫した色の遷移がある。そして、ここでは色の飛び越えがあります。
結果を表示する実装にはいくつか欠点がある......。 統計をテストしてみたら、こんな結果が出た:
それから、絵の下のカラーパレットに描かれているように、左から右へ、あるいは右から左へ、どこでも一貫した色の遷移がある。そして、ここでは色の飛び越えがあります。
トレーニングしたグリッドを 保存し、トレーニング用のグリッドとデータを投稿する。分析すると、どのように可能なのか答えが見つかると思う。あるいは、何がバグなのかがわかるだろう。
一般的には、再現可能な例が必要だ。
取引の機会を逃しています。
- 無料取引アプリ
- 8千を超えるシグナルをコピー
- 金融ニュースで金融マーケットを探索

新しい記事 自己組織化特徴マップ(Kohonenマップ) - サブジェクトリビジッティング はパブリッシュされました:
この記事では、Kohonenマップで動作するのテクニックについて説明します。Kohonenマップで困難に直面し、MQL4とMQL5でのプログラミングの基本的なレベルがわかる研究者や経験豊富なプログラマーを対象としています。自己組織化特徴マップ(Kohonenマップ) - サブジェクトリビジッティング
学習の半径は、勝ちニューロンの周囲に形成されています。学習の半径は、ニューロンが、この繰り返しを受けているかを定義します。勝ちニューロンは、最終段階での学習の半径内に収まるように、反復とともに減少します。
学習の半径内のニューロンの重みは、Kohonenルールに適合しています:
作者: Nikolay Demko