- ArrayBsearch
- ArrayCopy
- ArrayCompare
- ArrayFree
- ArrayGetAsSeries
- ArrayInitialize
- ArrayFill
- ArrayIsDynamic
- ArrayIsSeries
- ArrayMaximum
- ArrayMinimum
- ArrayPrint
- ArrayRange
- ArrayResize
- ArrayInsert
- ArrayRemove
- ArrayReverse
- ArraySetAsSeries
- ArraySize
- ArraySort
- ArraySwap
- ArrayToFP16
- ArrayToFP8
- ArrayFromFP16
- ArrayFromFP8
ArrayToFP16
Copie un tableau de type float ou double dans un tableau de type ushort avec le format donné.
bool ArrayToFP16(
|
Surcharge pour le type "double"
bool ArrayToFP16(
|
Paramètres
dst_array[]
[out] Tableau destination de type ushort.
src_array[]
[in] Tableau source de type float ou double.
fmt
[in] Copie du format à partir de l'énumération ENUM_FLOAT16_FORMAT.
Valeur de Retour
Renvoie true en cas de succès ou false sinon.
Note
Les formats FLOAT16 et BFLOAT16 sont définis dans l'énumération ENUM_FLOAT16_FORMAT et sont utilisés dans MQL5 uniquement pour les opérations avec les modèles ONNX.
La fonction convertit les paramètres d'entrée de type float ou double en type FLOAT16 et BFLOAT16. Ces paramètres d'entrée sont ensuite utilisés dans la fonction OnnxRun.
FLOAT16, également connu sous le nom de flottant demi-précision, utilise 16 bits pour représenter les nombres à virgule flottante. Ce format offre un équilibre entre précision et efficacité de calcul. FLOAT16 est largement utilisé dans les algorithmes d'apprentissage profond et dans les réseaux de neurones, qui nécessitent un traitement très performant de grands ensembles de données. Ce format accélère les calculs en réduisant la taille des nombres, ce qui est particulièrement important lors de la formation de réseaux de neurones profonds sur des GPU.
BFLOAT16 (ou Brain Floating Point 16) utilise également 16 bits mais diffère de FLOAT16 dans l'approche de la représentation du format. Dans ce format, 8 bits sont alloués pour représenter l'exposant, tandis que les 7 bits restants sont utilisés pour représenter la mantisse. Ce format a été développé pour être utilisé dans l'apprentissage profond (deep learning) et dans l'intelligence artificielle, notamment dans le Tensor Processing Unit (TPU) de Google. BFLOAT16 démontre d'excellentes performances dans la formation des réseaux neuronaux et peut accélérer efficacement les calculs.
Exemple : fonction issue de l'article Travailler avec des modèles ONNX aux formats float16 et float8
//+------------------------------------------------------------------+
|
Voir également