Discusión sobre el artículo "Aprendizaje automático y data science (Parte 06): Descenso de gradiente"
Hay un error al principio:
Estás confundiendo a la gente.
Primera iteración
Fórmula: x1 = x0 - Tasa de aprendizaje * ( 2*(x+5) ) )
x1 = 0 - 0.01 * 0.01 * 2*(0+5)
x1 = -0.01 * 10
x1 = -0.1.
Dice 0,01 dos veces.Estás confundiendo a la gente.
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Aprendizaje automático y data science (Parte 06): Descenso de gradiente:
El descenso de gradiente juega un papel importante en el entrenamiento de redes neuronales y diversos algoritmos de aprendizaje automático: es un algoritmo rápido e inteligente. Sin embargo, a pesar de su impresionante funcionamiento, muchos científicos de datos todavía lo malinterpretan. Veamos sobre qué tratará este artículo.
En esencia, el descenso de gradiente es un algoritmo de optimización usado para encontrar el mínimo de una función:

El descenso de gradiente es un algoritmo muy importante en el aprendizaje automático, ya que sirve de ayuda para encontrar los parámetros del mejor modelo para un conjunto de datos determinado. Primero, vamos a familiarizarnos con el término "función de coste".Autor: Omega J Msigwa