"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 73

 
yu-sha さん。

プリプロセッサーはまさにこのためにある

ニューロンが2個でも100個でも、ファイルの見た目は同じです。

まあ、グラフィカルにやるのは誰も止めないよ。GUIを書いてそれを使えばいいんだから。

まあ、肩肘張らずに、はっきりとした線で並べましょうよ。他の人も同じというわけではありませんが、私にとっては上に並べたような読み込み方は、読み込みアルゴリズム的に当然なのです。

文字列の読み込み、3つのレイヤ型オブジェクトの初期化。

最初の行を読み、最初のレイヤーオブジェクトを呼び出し、レイヤー型の入力を構築し、2つのニューロンの配列を初期化 します。

2行目を読み、2番目のオブジェクト層を呼び出し、層タイプ mlp を構築し、2ニューロン の配列を初期化します。

3行目を読んでから、2番目のレイヤーオブジェクトを呼び出し、mlpレイヤー型を構築し、ニューロン配列を1で初期化します。

層数が3層なので、3ライン目の施工を終え、コネクションを割り当てる。

を行うには、テーブルを調べて必要なニューロンを呼び出し、テーブルに1が含まれていればそのリンクを伝える。

また、xmlではどのようなアルゴリズムになるのでしょうか?

ZSと最大の利点は、接続テーブルがバイナリなので、完全にバインドできることです。 8ニューロン用のテーブルが1つのulongに収まります。確かに、一般的に森の奥に行くほどパルチザンは太く、ニューロン数の多いサイズは次のように計算されます。

X=N*N/8

ここで、N はニューロンの数である。

Xはバイト数。

 

デメリット

  • XMLの構文は冗長です。[8]
  • XML文書のサイズは、同じデータをバイナリで表現した場合よりも大幅に大きくなります。概算では、このファクターの値を1桁(10分の1)にしている。
  • XML文書のサイズは、他のテキストベースのデータ転送フォーマット(JSON[4]YAMLプロトコルバッファなど)の文書よりもかなり大きく、特に特定のユースケースに最適化されたデータフォーマットでは、その大きさは顕著です。
  • XMLの冗長性は、アプリケーションの効率に影響を与える可能性があります。データの保存、処理、転送のコストが増加する。
  • XMLはメタデータ(フィールド名、クラス名、構造のネスト)を含むと同時に、オープンシステムの通信言語として位置づけられている。システム間で同じ型(同じ構造)のオブジェクトを大量に転送する場合、メタデータはXML記述の各インスタンスに含まれるが、繰り返し転送する意味はない。
  • 大量のタスクを処理する場合、XML構文の能力をフルに発揮する必要はなく、よりシンプルで効率的なソリューションを使用することができます。

盗作をお詫びします。
 

私は、コンフィギュレーション、ネットワーク、設定、...を保存するための標準として、XMLを提案します。

また、初期化/保存の段階でのみ必要となる

ワークフローのプロセスにおいて、さらには学習のプロセスにおいて、XMLを疑うことなく

彼女.人間:
盗作をお詫びします。

でも、なぜかオラクルやマイクロソフトのようなモンスターがいるんですよ。バイナリ」(通常は商用)標準を突き放すために歯を食いしばり、オープンスタンダードに転向する。

10MBytesのXMLの引き算は、最近のコンピュータでは問題なし

MS Wordの.docx文書が100MBytesでも怖くない?

もし、XMLファイルからネットワークをダウンロードすることが問題なら、そのようなハードウェアでトレーニングすることは非現実的です。

 
yu-sha さん。

私は、コンフィギュレーション、ネットワーク、設定、...を保存するための標準として、XMLを提案します。

また、初期化/保存の段階でのみ必要となる

ワークフローのプロセス、さらには学習段階においては、XMLについてではなく

xmlのファイルは916バイト、バイナリ表現ではヘッダをクリックしなくても64バイトであることを考慮してください。

ヘッダー変数7個+各テーブル1個=8ulong×8byte=64個

 
ウラン です。

ほら、xmlファイルは916バイトなのに、バイナリ表現はヘッダをクリックしなくても64バイトでしょ。

ヘッダー変数7個+各テーブル1個=8ulong×8byte=64個


フォーラムのこのページを開くために、私は少なくとも100キロバイトをインターネットを介してポンピングしています。

2012年になってから、バイトという 単位を使うことがなくなりました(笑)。

追伸

私は私のやり方を提案しただけだ-決めるのは国民だ

 
ゆうしゃ

私は、コンフィギュレーション、ネットワーク、設定、...を保存するための標準として、XMLを提案します。

また、初期化/保存の段階でのみ必要となる

ワークフローのプロセスでは、さらに言えば、トレーニングのプロセスでは、XMLは関係ないのです。

ネットワーク構造を最適化するためには、ニューロンやコネクションの数を(その場で)変更する必要があります。

このようなことは可能でしょうか?

もし差し支えなければ、あなたのコードをコメントしてください。コメントなしで他の人のコードを理解するには時間がかかりすぎるかもしれません。ありがとうございます。

 
her.human:

ネットワークの構造を最適化するためには、ニューロンや接続の数を(オンザフライで)変更することが必要です。

可能なのでしょうか?

もし難しいことでなければ、あなたのコードをコメントしてください、あの、コメントなしで他の人のコードを理解するには時間がかかりすぎます。ありがとうございます。

これはトレーニングの問題です。潜在的には可能だが、実際に使ったことはない。

通常、学習過程では、ネットワーク構造は変化せず、適応パラメータのみが変化する。

この問題の定義は、すでにメタレベルで、ネットワーク構造を変更するためにアーキテクトを訓練し、結果として得られるネットワークが他よりも学習において成功するようにすることです。

自分用に作ったので、いつものように急ぎ足で、失礼しました。

いい意味で、プロジェクト 全体がうまくいった後に、そこにあるものはすべて骨で作り直されるべきものなのです。

 
yu-sha:

フォーラムのこのページを開くために、少なくとも100キロバイトをダウンロードしています。

2012年になってから、バイトという 単位を使うことがなくなりました(笑)。

追伸

私は私の見解を述べただけで、決めるのは国民です。

実験してみよう!1000ニューロン、1ニューロンあたり100リンクのxmlローダーを作成し、ファイルサイズ、構造は何でも良いから投稿して くれ。

私のバリアントは1000*1000/8=~125KBと膝をついて計算できるのに、あなたのはできないから比較できない...。

もし、あなたのバージョンが許容できる寸法であるなら、なぜそうしないのか。

 
ウラン です。

ポイント、メモリ、およびGPUにオブジェクトロジックのねじれを実装することは困難であろう、私はかなり良いアイデアを持っているNSを実装する方法、GPUの計算の機能がある内のオブジェクトの複雑な相互作用として(これはマイクロレベルについてです)、しかし私は想像できない方法この複雑なオブジェクトコードそれら全体のNSが重み(マクロレベル)の異なるセットでいくつかのFFとしてGPUを滑るために、?

この質問は修辞的なもので、誰かが提示すれば、私はそれを聞いても構わないが。

そのため、より一般的なOpenCLではなく、CUDAを選択したのです

CUDAのコードはオブジェクト指向であり、CPU上で生成されたオブジェクトをビット単位で渡すことができる

微妙な点はありますが、すべて解決できます

 
yu-sha さん。

そのため、より一般的なOpenCLではなく、CUDAが選ばれたのです

CUDAのコードはオブジェクト指向であり、CPU上で形成されたオブジェクトをビット単位で渡すことができる

微妙なニュアンスはありますが、すべて解決できます

私は専門家ではないので、あなたを信じます、きっといいことがありますよ。
理由: