Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3235

 
Aleksey Nikolayev #:
Google onnx.

Gracias.

¿He entendido bien que se admiten varias funciones estándar, pero no las escritas por uno mismo?

 
Aleksey Vyazmikin #:

Gracias, señor.

¿He entendido bien que se admiten varias funciones estándar, pero no las escritas por uno mismo?

Google (o CHATGPTit) onnx desde cero. Soy un pobre sustituto de la IA.
 
Aleksey Nikolayev #:
Google (o CHATGRTit) onnx desde cero. Hago un pobre reemplazo AI.

ChatGPT:

"
ONNX (Open Neural Network Exchange) es un formato de intercambio de modelos de aprendizaje profundo que está diseñado para almacenar y transferir modelos entre diferentes marcos y herramientas de aprendizaje profundo. La idea principal detrás de ONNX es proporcionar un formato común para representar modelos, independientemente de cómo fueron creados.

ONNX no está diseñado para almacenar funciones o códigos personalizados arbitrarios. Está diseñado para representar modelos que pueden expresarse como un grafo computacional formado por capas y operaciones soportadas por operaciones estándar de aprendizaje profundo como convoluciones, agrupaciones, activaciones, etc.

Si tiene una función personalizada que desea integrar en un modelo de aprendizaje profundo y almacenar en formato ONNX, es posible que tenga que implementar la función utilizando operaciones y capas compatibles con ONNX, o reescribirla como un gráfico computacional. El código de usuario o las funciones escritas en un lenguaje de programación deben representarse como parte de este gráfico utilizando operaciones estándar.

"

 
Aleksey Vyazmikin #:

ChatGPT:

"
ONNX (Open Neural Network Exchange) es un formato de intercambio de modelos de aprendizaje profundo diseñado para almacenar y transferir modelos entre diferentes marcos y herramientas de aprendizaje profundo. La idea principal detrás de ONNX es proporcionar un formato común para representar modelos, independientemente de cómo fueron creados.

ONNX no está diseñado para almacenar funciones o códigos personalizados arbitrarios. Está diseñado para representar modelos que pueden expresarse como un gráfico computacional formado por capas y operaciones soportadas por operaciones estándar de aprendizaje profundo, como convoluciones, agrupaciones, activaciones, etc.

Si tiene una función personalizada que desea integrar en un modelo de aprendizaje profundo y almacenar en formato ONNX, es posible que tenga que implementar la función utilizando operaciones y capas compatibles con ONNX, o reescribirla como un grafo computacional. El código de usuario o las funciones escritas en un lenguaje de programación deben representarse como parte de este gráfico utilizando operaciones estándar.

"

Para convertir una media móvil exponencial (EMA) al formato ONNX, puede utilizar la API Python de ONNX

. En primer lugar, debe crear un modelo ONNX utilizando la API de ONNX. A continuación, puede añadir el cálculo de la EMA al modelo. Una forma de calcular la EMA en Python es utilizar la biblioteca Pand as
1
2
. Una vez implementado el cálculo de la EMA en Python, puede utilizar la API de ONNX para convertir el código Python en un modelo ONNX. A continuación se muestra un ejemplo de código Python para calcular la EMA utilizando Pandas:

****************************

Este es el principio de la respuesta de AI a tu pregunta sobre EMA. Una vez más, te insto a que pases de fabricar cerebros humanos a IA.

 
Aleksey Nikolayev #:

Para convertir una media móvil exponencial (EMA) en formato ONNX, puede utilizar la API Python de ONNX

. En primer lugar, debe crear un modelo ONNX utilizando la API de ONNX. A continuación, puede añadir el cálculo de la EMA al modelo. Una forma de calcular la EMA en Python es utilizar la biblioteca Pand as
1
2
. Una vez implementado el cálculo de la EMA en Python, puede utilizar la API de ONNX para convertir el código Python en un modelo ONNX. A continuación se muestra un ejemplo de código Python para calcular la EMA utilizando Pandas:

****************************

Este es el principio de la respuesta de AI a tu pregunta sobre EMA. Una vez más, te insto a que pases de fabricar cerebros humanos a IA.

No te hagas el listo, no me interesan las funciones de la biblioteca, sino mis propias funciones. Y la IA me ha respondido que no se puede hacer sin pandereta.

Si no quieres contestar, es mejor callarse en vez de ahogarse en bilis.

Una rama supertóxica.

 
)))
Es hermoso
 
Todo está codificado como grafos con operadores matriciales en sus nodos. Nada sobrenatural. Cada modelo tiene su propio parser a este formato y viceversa. Hay un programa en github que permite crear o editar visualmente estos gráficos, basado en netron.
 
Aleksey Vyazmikin #:

No te hagas el listo, no me interesan las funciones de la biblioteca, sino mis propias funciones. Y AI me dio una respuesta que es imposible hacerlo sin pandereta.

Si no quieres contestar, mejor calla en vez de ahogarte en bilis.

Una rama supertóxica.

Los que quieren hacer algo buscan oportunidades, los que no quieren hacerlo buscan razones.

Tú mismo estás intoxicando el hilo, intentando forzar a sus participantes a "colaborar en tu beneficio" con tus manipulaciones.

 
No obstante, el tema de la creación de pipelines personalizados y su posterior conversión a ONNX es muy interesante, importante y bien merece uno o incluso varios artículos en el foro.
 

Si he entendido bien, el esquema de trabajo con ONNX simplificado es el siguiente:

MQL5_Input_Data -> ONNX -> MQL5_TS, donde:

MQL5_Input_Data - adquisición de datos

ONNX - modelo (red neuronal con coeficientes de peso)

MQL5_TS - manejador y sistema de comercio.


No está claro cómo se ejecuta el modelo ONNX, si se ejecuta directamente por MT5, o si Python debe ser utilizado para este propósito.

Razón de la queja: