- ArrayBsearch
- ArrayCopy
- ArrayCompare
- ArrayFree
- ArrayGetAsSeries
- ArrayInitialize
- ArrayFill
- ArrayIsDynamic
- ArrayIsSeries
- ArrayMaximum
- ArrayMinimum
- ArrayPrint
- ArrayRange
- ArrayResize
- ArrayInsert
- ArrayRemove
- ArrayReverse
- ArraySetAsSeries
- ArraySize
- ArraySort
- ArraySwap
- ArrayToFP16
- ArrayToFP8
- ArrayFromFP16
- ArrayFromFP8
ArrayToFP16
float型またはdouble型の配列を、指定された形式のushort型の配列にコピーします。
bool ArrayToFP16(
|
double型のオーバーロード
bool ArrayToFP16(
|
パラメータ
dst_array[]
[out] ushort型の受信側配列
src_array[]
[in] float型またはdouble型のソース配列
fmt
[in] ENUM_FLOAT16_FORMAT列挙からのコピー形式
戻り値
成功の場合はtrue、それ以外の場合はfalse
注意事項
FLOAT16およびBFLOAT16はENUM_FLOAT16_FORMAT列挙で定義されており、MQL5ではONNXモデルでの操作にのみ使用されます。
この関数は、float型またはdouble型の入力パラメータをFLOAT16型またはBFLOAT16型に変換します。これらの入力パラメータは、OnnxRun関数で使用されます。
FLOAT16は半精度浮動小数点数とも呼ばれ、16ビットを使用して浮動小数点数を表します。この形式では、精度と計算効率のバランスが提供されます。FLOAT16は、大規模なデータセットの高性能処理を必要とする深層学習アルゴリズムやニューラルネットワークで広く使用されています。この形式は、数値のサイズを小さくすることで計算を高速化します。これは、GPUでディープニューラルネットワークを訓練する場合に特に重要です。
BFLOAT16(またはBrain Floating Point 16)も16 ビットを使用しますが、形式表現のアプローチがFLOAT16とは異なります。この形式では、8ビットが指数を表すために割り当てられ、残りの7ビットが仮数を表すために使用されます。この形式は、深層学習と人工知能、特にGoogleのTensor Processing Unit (TPU)で使用するために開発されました。BFLOAT16は、ニューラルネットワークの訓練で優れたパフォーマンスを示し、計算を効果的に高速化できます。
例:記事の関数float16およびfloat8形式のONNXモデルの操作
//+------------------------------------------------------------------+
|
参照