Discusión sobre el artículo "Simulador rápido de estrategias comerciales en Python usando Numba" - página 6

 
bestvishes #:
Hola maxim, creo que eres la persona más inteligente del foro, espero ver una descripción detallada en el segundo artículo. agradecido

Gracias por el halagador comentario, intentaré escribir algo interesante para vosotros.

 
def get_prices() -> pd.DataFrame:
Try:
# Cargar un archivo CSV separado por comas
p = pd.read_csv(f"files/{hyper_params['symbol']}.csv" )

# Comprobar las columnas requeridas
required_columns = ['hora', 'cerrar' ]
for col in required_columns:
if col not in p.columns:
raise KeyError(f"Falta la columna'{col}' en el fichero." )

# Convierte la columna 'time' a formato datetime
p ['hora'] = pd.to_datetime(p['hora'], errors='coerce' )

# Establecer el índice de tiempo
p. set_index('hora', inplace=True )

# Dejar sólo la columna 'cerrar' y eliminar las filas con datos incorrectos
pFixed = p[['close']].dropna( )

return pFijado
except Exception as e:
print(f"Error al procesar los datos: {e}" )
return pd.DataFrame() #Devuelve un DataFrame vacío en caso de error
Archivos adjuntos:
export_mt5.py  2 kb
 

Tengo algo de tiempo y casi he terminado el entrenamiento de modelos + optimización de hiperparámetros en una botella.

Será posible entrenar muchos modelos a la vez, luego optimizarlos, luego seleccionar el mejor modelo con los mejores parámetros de optimización, por ejemplo:

models = []
for i in range(20):
    print(f'Iteration: {i}')
    models.append(learnANDoptimize())

models.sort(key=lambda x: x[0][0]['score'])


index = -1
test_model(models[index][0][0]['dataframe'],
            [models[index][-1]],
            hyper_params['stop_loss'],
            hyper_params['take_profit'],
            hyper_params['forward'],
            hyper_params['backward'],
            hyper_params['markup'],
            True)

Y emitir el resultado.

A continuación, el modelo se puede exportar al terminal con los hiperparámetros óptimos. O utilizar el propio optimizador del terminal.

Empezaré el artículo más tarde, no lo he olvidado.