記事"パーセプトロンニューラルネットワーク"についてのディスカッション - ページ 2 123456789 新しいコメント Andrey Azatskiy 2020.01.17 15:17 #11 Реter Konow: 記事のパート2は「人工ニューロンの仕組み」です。間違っていたら訂正してください。 1.ニューロンはいくつかの機能から構成されている: 1.最初の関数は、入力値に重み係数を掛ける。 2.得られた積を合計する。 この記事から判断すると、ニューロンのこの特殊な実装には以下のものが含まれている: 1.このニューロンに含まれるすべてのニューロンの重み。 2.加重和を使って重みを合計する。 3.アクチュアライジング関数 - この特定のニューロンの最終値をすでに出力している。 コードはコンパイルできませんが、非常にわかりやすく書かれています。詳細はneuronクラスを参照。 Реter Konow 2020.01.17 15:17 #12 なるほど。ニューロンの活性化関数?つまり、0と1の間、あるいは-1と1の間の範囲にする関数ですか? Andrey Azatskiy 2020.01.17 15:19 #13 Реter Konow: なるほど。ニューロンの活性化関数?つまり、0と1の間、または-1と1の間の範囲をもたらす関数ですか? はい、その通りです。そこの著者は、最も頻繁に使用されるものの名前をウィキペディアやオンラインで紹介しています。 私自身もこのトピックに興味があるので、後で時間の許す限り、もっと詳しく調べます)。 Andrey Azatskiy 2020.01.17 15:21 #14 入力信号だけがこの区間になければならない。入力信号とは、まさにニューロンへの入力信号のことであり、議論中の関数への入力信号のことではない。 Реter Konow 2020.01.17 16:41 #15 Andrey Azatskiy:ああ、その通りだ。 わかった。ニューロンへの入力値がどこから来るかは明らかである-データ配列からか、ニューロンの前の層からか。しかし、入力値に乗算される重み係数はどこから来るのだろうか? Реter Konow 2020.01.17 16:48 #16 ニューロンの入力値を乗算する重み係数は、ネットワークの「訓練」の結果として生じるようだ。つまり、最初は存在せず、やがて現れる。しかし、具体的にどのようになのかはまだわかっていない。 Andrey Azatskiy 2020.01.17 17:58 #17 Реter Konow: ニューロンの入力値を乗算する重み係数は、ネットワークの「訓練」の結果として生じるようだ。つまり、最初は存在せず、やがて現れる。しかし、具体的にどのようになのかはまだわかっていない。 私もあなたのようにニューロンを使ったことはないが、記事を読み、コードを注意深く見て、そのような疑問はすべて消えた。 ニューロンの初期ウェイト値は、ランダムに、あるいは以前に保存したファイルから設定される。さらに学習プロセスでは、目標値と直近のニューロンの出力値の誤差に基づいて、すべての重みが再計算される。重みの再計算自体は、各ニューロンで独立して実行される(記事中のニューロンについて説明した部分と、ニューロン自体のコードを参照)。 Реter Konow 2020.01.17 18:37 #18 Andrey Azatskiy:私もあなたと同じように、ニューロンを使ったことはありませんでしたが、記事を読み、コードを注意深く見直した結果、そのような疑問はすべて消えました。 ニューロンの初期ウェイト値は、ランダムに、あるいは以前保存したファイルから設定する。さらに学習プロセスでは、目標値と直近のニューロンの出力値の誤差に基づいて、すべての重みが再計算される。重みの再計算自体は、各ニューロンで独立して行われる(記事のニューロンについて説明されている部分を見て、ニューロン自体のコードを見る)。 私は知識豊富な人々との対話から、より簡単に材料を学ぶことができる。記事から学ぶより10倍速い。)分かりやすい説明をありがとう。 Dmitriy Gizlyk 2020.01.20 21:04 #19 Реter Konow: 記事は興味深い。"指の上 "について説明していただけますか? 1.神経細胞とは何ですか? 2.ニューロンの束とは何か?(2つのニューロン(第1層のニューロンと第2層のニューロン)の間の接続を意味する)。 以上、最後まで記事を読んでも理解できなかった質問でした。 ありがとうございました。 Retag Konow: 記事のその2は「人工ニューロンの仕組み」です。間違っていたら訂正してください。 ニューロンはいくつかの機能から構成されている: 1.最初の関数は、入力値に重み係数を掛ける。 2.得られた積を合計する。 3.3番目は、得られた値を活性化関数で計算する。 言葉はわかるが、意味はわからない。 こんばんは、ピーター。 中のニューロンは2つの機能で構成されている。 1.まず、加重係数を考慮したすべての入力信号の和を計算する。つまり、ニューロンの各入力における値を取り、それに対応する重み付け係数を掛ける。そして得られた積の値を合計する。 こうして一定の値が得られ、これが活性化関数の入力に与えられる。 2.活性化関数は、得られた和を正規化された出力信号に変換する。これは単純な論理関数でも、さまざまなシグモイド関数でもよい。後者の方が、状態変化の遷移がスムーズであるため、より広く普及している。 ニューロン間のコミュニケーションは、あるニューロンの出力値を後続のニューロンの入力に直接転送することで構成される。この場合、ポイント1を参照すると、ニューロンの入力値は、その重み係数に従って考慮される。 Dmitriy Gizlyk 2020.01.21 09:11 #20 Andrey Azatskiy: また、neurotNamとは何なのか、レイヤーのニューロンを作成するメソッドなのか、どこにも宣言されていないし、なぜニューロンの初期値が3で割った余りから1を引いた値になるのか、そのロジックも明確ではない。 指定された行はニューロンの出力値の初期データを割り当て、定数で置き換えることができる。この値はニューラルネットワークの値の最初の直接再計算時に変更されます。 123456789 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
記事のパート2は「人工ニューロンの仕組み」です。間違っていたら訂正してください。
この記事から判断すると、ニューロンのこの特殊な実装には以下のものが含まれている:
1.このニューロンに含まれるすべてのニューロンの重み。
2.加重和を使って重みを合計する。
3.アクチュアライジング関数 - この特定のニューロンの最終値をすでに出力している。
コードはコンパイルできませんが、非常にわかりやすく書かれています。詳細はneuronクラスを参照。
なるほど。ニューロンの活性化関数?つまり、0と1の間、または-1と1の間の範囲をもたらす関数ですか?
はい、その通りです。そこの著者は、最も頻繁に使用されるものの名前をウィキペディアやオンラインで紹介しています。
私自身もこのトピックに興味があるので、後で時間の許す限り、もっと詳しく調べます)。
ああ、その通りだ。
ニューロンの入力値を乗算する重み係数は、ネットワークの「訓練」の結果として生じるようだ。つまり、最初は存在せず、やがて現れる。しかし、具体的にどのようになのかはまだわかっていない。
私もあなたのようにニューロンを使ったことはないが、記事を読み、コードを注意深く見て、そのような疑問はすべて消えた。
ニューロンの初期ウェイト値は、ランダムに、あるいは以前に保存したファイルから設定される。さらに学習プロセスでは、目標値と直近のニューロンの出力値の誤差に基づいて、すべての重みが再計算される。重みの再計算自体は、各ニューロンで独立して実行される(記事中のニューロンについて説明した部分と、ニューロン自体のコードを参照)。
私もあなたと同じように、ニューロンを使ったことはありませんでしたが、記事を読み、コードを注意深く見直した結果、そのような疑問はすべて消えました。
ニューロンの初期ウェイト値は、ランダムに、あるいは以前保存したファイルから設定する。さらに学習プロセスでは、目標値と直近のニューロンの出力値の誤差に基づいて、すべての重みが再計算される。重みの再計算自体は、各ニューロンで独立して行われる(記事のニューロンについて説明されている部分を見て、ニューロン自体のコードを見る)。
記事は興味深い。"指の上 "について説明していただけますか?
記事のその2は「人工ニューロンの仕組み」です。間違っていたら訂正してください。
こんばんは、ピーター。
中のニューロンは2つの機能で構成されている。
1.まず、加重係数を考慮したすべての入力信号の和を計算する。つまり、ニューロンの各入力における値を取り、それに対応する重み付け係数を掛ける。そして得られた積の値を合計する。
こうして一定の値が得られ、これが活性化関数の入力に与えられる。
2.活性化関数は、得られた和を正規化された出力信号に変換する。これは単純な論理関数でも、さまざまなシグモイド関数でもよい。後者の方が、状態変化の遷移がスムーズであるため、より広く普及している。
ニューロン間のコミュニケーションは、あるニューロンの出力値を後続のニューロンの入力に直接転送することで構成される。この場合、ポイント1を参照すると、ニューロンの入力値は、その重み係数に従って考慮される。
また、neurotNamとは何なのか、レイヤーのニューロンを作成するメソッドなのか、どこにも宣言されていないし、なぜニューロンの初期値が3で割った余りから1を引いた値になるのか、そのロジックも明確ではない。
指定された行はニューロンの出力値の初期データを割り当て、定数で置き換えることができる。この値はニューラルネットワークの値の最初の直接再計算時に変更されます。