¿Qué alimentar a la entrada de la red neuronal? Tus ideas... - página 59

[Eliminado]  
mytarmailS #:
Pues decídase.

La aproximación no es aprendizaje, pero la neurónica es un aproximador...

¿La neurónica no es entrenable?


Uno piensa que DB es un clasificador, el otro se confunde con aproximación....

¿En qué sois expertos? 😀
El aprendizaje es un concepto más amplio que la optimización y la aproximación. Por qué es tan difícil? Porque los scoofs se han puesto las pilas?
 
Maxim Dmitrievsky #:
El aprendizaje es un concepto más amplio que la optimización y la aproximación. ¿Por qué es tan difícil?
Amplio, estrecho.

Entrenar un modelo sobre una traza no es más que curvefitting, es decir, aproximación... más detalles.
[Eliminado]  
mytarmailS #:
Ancho, estrecho.

Entrenar un modelo sobre una traza no es más que curvafitting, es decir, aproximación... más detalles
Esa es tu opinión personal.
[Eliminado]  
Tengo una pregunta y un desconcierto en una botella. ¿Realmente pretendes seguir discutiendo sobre el MdD con el culo al aire, es decir, sin un mínimo conocimiento del tema de discusión? :)
 
Maxim Dmitrievsky #:
Tengo una pregunta y un desconcierto en una botella. ¿Realmente pretendes seguir discutiendo sobre el MdD con el culo al aire, es decir, sin un mínimo conocimiento del tema de discusión? :)
Pues si profundizar en el tema para ellos es charlar con gpt, ¿cómo crees?


Ni siquiera serán capaces de formular bien una pregunta por falta de conocimientos y terminología.
[Eliminado]  
mytarmailS #:
Bueno si el tema de aprendizaje profundo para ellos es chatear con gpt entonces ¿qué te parece?
Al menos está mejor formado que algunos. Muchos expertos han trabajado duro.
 
Maxim Dmitrievsky #:
Al menos está mejor entrenado que otros. Muchos expertos han trabajado duro.
Las alucinaciones no han desaparecido
[Eliminado]  
mytarmailS #:
La alucinación no fue a ninguna parte
Este es un problema conocido en los nuevos datos. Como base de conocimientos es bastante tolerable :)
 
Maxim Dmitrievsky #:
Se trata de un problema conocido en datos nuevos. Como base de conocimientos es bastante tolerable :)
Estoy pensando en crear una base de conocimientos sobre el mercado y luego comerciar a partir de ella.

Puede utilizar por ejemplo obsidiana
 
Forester #:

La máxima calidad del entrenamiento se obtendrá con una memorización absolutamente precisa, es decir, cuando todos los datos estén completamente registrados en la base de datos, o cuando se entrene un árbol hasta la última división o agrupación posible con un número de agrupaciones = número de ejemplos.

Los árboles que dejen de dividirse antes o que se agrupen con menos clusters generalizarán y fusionarán los datos en hojas/clusters. Serán modelos poco entrenados, pero en presencia de ruido pueden tener más éxito que los modelos con recuperación exacta.

Hubo un ejemplo al principio de la rama MO con la enseñanza a un andamio de la tabla de multiplicar. Como no se le dio un número infinito de opciones posibles para el entrenamiento, el bosque produce a veces respuestas exactas, pero sobre todo respuestas aproximadas. Es evidente que no está suficientemente entrenado. Pero es capaz de generalizar, encontrando y promediando las respuestas más cercanas a las correctas de los árboles individuales.

Cuando se aprende con ruido, es difícil evaluar la calidad. Sobre todo si el ruido es mucho mayor que los patrones, como en el comercio.

Para ello se inventó la evaluación sobre muestra de validación y prueba, la validación cruzada, el jacking forward, etc.

Así surgió la palabra evaluación, genial.

Entonces, el aprendizaje necesita ser evaluado de alguna manera, no importa cómo, lo importante es mejorar la evaluación. ¿Verdad?