Discusión sobre el artículo "Redes neuronales: así de sencillo (Parte 84): Normalización reversible (RevIN)"

 

Artículo publicado Redes neuronales: así de sencillo (Parte 84): Normalización reversible (RevIN):

Hace tiempo que sabemos que el preprocesamiento de los datos de origen desempeña un papel fundamental en la estabilidad del entrenamiento de los modelos. Y para el procesamiento en línea de datos de origen "brutos" solemos utilizar una capa de normalización por lotes. Pero a veces tenemos que invertir el procedimiento. En este artículo analizaremos un posible enfoque para resolver este tipo de problemas.

Querría recordarle que ya nos hemos encontrado con un problema similar al entrenar distintos modelos de autocodificadores. Entonces encontramos una salida al usar los datos de origen tras la normalización como objetivos. Sin embargo, en este caso necesitamos datos que describan estados del entorno posteriores diferentes de los datos originales. Uno de los métodos para resolver este problema se propuso en el artículo "Reversible Instance Normalization for Accurate Time-Series Forecasting against Distribution Shift".

Los autores del artículo proponen un método de normalización y desnormalización sencillo pero eficaz: la normalización instantánea reversible (RevIN), que primero normaliza las secuencias de entrada y luego desnormaliza las secuencias de salida del modelo para resolver problemas de previsión de series temporales que impliquen el desplazamiento distribucional. RevIN está estructurado simétricamente para retornar la información de la distribución original a la salida del modelo mediante el escalado y el desplazamiento de la salida en la capa de desnormalización en una cantidad equivalente al desplazamiento y escalado de los datos originales en la capa de normalización.

RevIN es una capa flexible y entrenable que puede aplicarse a cualquier capa elegida aleatoriamente, suprimiendo de forma eficaz la información no estacionaria (media y varianza de una instancia) en una capa y restaurándola en otra capa de posición casi simétrica, como las capas de entrada y salida. 

"Neural Networks Made Easy (Part 84): Reversible Normalization (RevIN)"

Autor: Dmitriy Gizlyk

 
ORL优化中发生错误。
 
LJ1616#
ORL优化中发生错误。

您也可以简单地将图像拖放到文本中或使用 Ctrl+V 粘贴
2024.04.23 17:36:01.235 核心 01 通过 0 测试,在 0:00:00.098 中出现错误 "OnInit 返回非零代码 1"

 
Hola a todos

Estoy ejecutando el código en Neural networks made easy (Part 67): Using past experience to solve new tasks

Tengo el mismo problema con respecto a lo siguiente.

2024.04.21 18:00:01.131 Core 4 pass 0 tested with error "OnInit returned non-zero code 1" in 0:00:00.152

Parece que está relacionado con el comando 'FileIsExist'.

Pero, no puedo resolver este problema.

¿Sabéis cómo resolverlo?