Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2451

 
Alexei Tarabanov #:

Todo está por delante.

¿Qué quieres decir?

 

Mi nieta está aprendiendo farsi y chino. También pide japonés para poder espiarlos

 
Alexei Tarabanov #:

Mi nieta está aprendiendo farsi y chino. También pide el japonés para poder espiarlos.

Guay, por supuesto, pero no con visión de futuro (culpa de los padres), sería mejor que aprendiera lenguajes de programación, que también desarrolla la capacidad de pensar...

Los traductores son muy buenos ahora, en 10 años creo que podremos implantar chips en el cerebro con muchas bondades, entre ellas la traducción de todos los idiomas, han aprendido a conectarse al cerebro, es sólo cuestión de tiempo...

Así que aprender muchos idiomas es como soñar con ser piloto, camionero, taxista, no darse cuenta de que el Tesla ya pasa por delante de ti con el piloto automático a tope... Muy pronto muchos puestos de trabajo desaparecerán para siempre y hay que pensar en ello...

 
Te tuteas con Python
 
Alexei Tarabanov #:
En un tuteo con Python

cool

 
Maxim Dmitrievsky #:
La mitad de las activaciones de las neuronas son para la clase 1, la otra mitad para la otra clase. Basado en una lógica tan primitiva. Si está sesgado, quizá las clases estén mal equilibradas. Y los valores extremos parecen hacer que el gradiente explote o se desvanezca

Max, no saques conclusiones precipitadas.

La palabra "posiblemente" en tu post sugiere que no has pensado en esta formulación de la pregunta, ¿verdad?

La red neuronal en general y el MLP en particular es algo muy flexible, y el mismo conjunto de características puede ser dividido de la misma manera por la misma red pero a diferentes valores de pesos de las neuronas.... ¿Verdad? - Así que se plantea la cuestión de cuál de estas variantes del conjunto de pesos es más robusta.

Y con el segundo, que contestó a mi post, no creo que sea necesario mantener un diálogo más, no tiene sentido.

 
Alexei Tarabanov #:

Zhi, shi se escriben con i.

Hay excepciones. ;)

 
Andrey Dik #:

Max, no saques conclusiones precipitadas.

La palabra "tal vez" en tu post sugiere que no has pensado en esta formulación de la pregunta, ¿verdad?

La red neuronal en general y el MLP en particular es algo muy flexible, y el mismo conjunto de características puede ser dividido igualmente por la misma red pero a diferentes valores de pesos de las neuronas.... ¿Verdad? - Así que se plantea la cuestión de cuál de estas variantes del conjunto de pesos es más robusta.

Y con el segundo, que contestó a mi post, no creo que sea necesario mantener un diálogo más, no tiene sentido.

No te metas en tonterías. Se le ha contestado correctamente que debe elegir un modelo en el examen. Y aún mejor en la validación cruzada o en el reenvío de la valoración.

Aunque la experiencia se adquiere con la práctica... Estudiar) Luego llegarás a las pruebas.

 
elibrarius #:

No hagas ninguna tontería. Se le ha dicho correctamente que debe elegir un modelo en la prueba. O incluso mejor en la validación cruzada o en la valoración de los resultados.

Aunque la experiencia se adquiere con la práctica... Ya vendrán las pruebas más tarde.

en la prueba... una prueba es lo mismo que la derivada de una función, puede ser la misma curva, tangente en el mismo punto pero a dos funciones diferentes.

No quiero ofender a ninguno de los veteranos de este hilo, pero deberías saber lo básico después de tantos años.

 

.

Razón de la queja: