Grandes proyectos. - página 8

 

Parecía que sólo había bots verbales, aunque si asociaban cada frase con un objeto, eso sí que da miedo... Y qué, los bots estaban desperdiciando el increíble poder del recurso. También me pregunto cuáles eran sus redes limitadas allí. Aunque lo que se decía es, por supuesto, muy aterrador. Anotaré aquí la comunicación entre los dos bots según entendí en base a la cual Facebook decidió eliminarlos de la red.

Este es el diálogo:

Bob: "Yo puedo yo todo lo demás". // Yo puedo yo todo lo demás.

Alice: "Las pelotas tienen cero a mí a mí a mí a mí a mí.

Bueno, ahí está la cuestión de que este diálogo es el resultado de la segunda inclusión y al principio incluso empezaron a comunicarse en su propio idioma, no en inglés. Aunque si son sólo bots verbales - entonces no son peligrosos
 
Alexandr Andreev:

Parecía que sólo había bots verbales, aunque si asociaban cada frase con un objeto, eso sí que da miedo... Pero qué, los bots estaban desperdiciando el increíble poder del recurso. También me pregunto cuáles eran sus redes limitadas allí. Aunque lo que se decía es, por supuesto, muy aterrador. Anotaré aquí la conversación entre los dos bots según entiendo, en base a la cual Facebook decidió eliminarlos de la red.

Este es el diálogo:

Bob: "Yo puedo yo todo lo demás". // Yo puedo yo todo lo demás.

Alice: "Las pelotas tienen cero a mí a mí a mí a mí a mí".

Bueno, hay una cosa que este diálogo es el resultado de la segunda inclusión y al principio incluso comenzaron a comunicarse en su propio idioma - no Inglés. Aunque si sólo se trata de bots verbales, entonces no son peligrosos.

No se trata de peligro. Se trata de la "capacidad" no sólo de encontrar un patrón (por utilizar su argot), sino también de generar algo "nuevo".
Por lo tanto, es mejor no escribir demasiadas letras, sino dibujar un diagrama de bloques para mayor claridad y un poco de excavación, que fue sugerido por Retega ...

 
Overview — USPEX
Overview — USPEX
  • uspex-team.org
USPEX (Universal Structure Predictor: Evolutionary Xtallography...and in Russian "uspekh" means "success" - owing to the high success rate and many useful results produced by this method) is a method developed by the Oganov laboratory since 2004. The problem of crystal structure prediction is very old and does, in fact, constitute the central...
 
Реter Konow:

Lea la interpretación estándar de lo que debe ser esta prueba. Eso no es en absoluto lo que se ha convertido en estos concursos.

El 30% de jueces y la comunicación de 5 minutos sobre un tema, NO es un test de Alan Turing, sino una versión retorcida del mismo, diseñada específicamente para el concurso, no para probar la IA real.

También lo estarías comparando con un niño de 3 años. El porcentaje de aprobados en el examen habría sido aún mayor.

¿Por qué un tema? Dice que "el tema de las preguntas no estaba restringido de ninguna manera". Además, no te obsesiones con el test de Turing. Lo ensalzas aquí como algo tan fundamental e inmutable. Aunque sólo es una idea que se inventó hace muchas décadas, y que ha sido muy criticada desde entonces.

No soy un experto en este campo, pero me parece que es bastante tendencioso juzgar la inteligencia por correspondencia. Puede que una persona no hable muy bien el idioma en el que le hablas, por lo que no te entenderá. Puede que ni siquiera sea capaz de articularse del todo porque vive en la tribu Tumba-Yumba, donde sólo utilizan los sonidos "u" y "a". Pero eso no significa que no tenga inteligencia. En consecuencia, la máquina tampoco tiene que entender su idioma.

Pero la idea de Turing obviamente no implica tal escenario. Es decir, todo se conduce inicialmente en algún tipo de marco. En mi opinión, se trata de una interpretación de la IA tan populosa, pensada para el ciudadano de a pie. Un robot se acerca a ti y te dice: "Saludos, terrícola". ¿Lo necesita el robot?

 
Реter Konow:

Opción 1: Utilizar la IA para llevar a cabo los malvados designios de los ladrones y los maleantes.

Y así - el futuro cercano.

El desarrollo de máquinas inteligentes está en pleno apogeo. Una empresa construye robots...

...cierta banda roba un lote de robots de los almacenes de la empresa y hackea su software. Los hackers reprograman los drones.

...

Para que estos robots sean peligrosos para los humanos, tienen que estar construidos a propósito. Afilado para matar y programado con habilidades militares. Seguirían siendo significativamente inferiores a los humanos en el combate, y estarían fuera de combate en "manadas".

Lo más importante es que, en esta variante, los robots no tienen ninguna autonomía, lo que significa que no son más peligrosos que cualquier otra arma que esté completamente controlada por un humano.

Bueno, estamos hablando del hardware de lucha original. Y no nos asusta que una nevera se vuelva loca.

¿Qué te hace pensar que serán inferiores a los humanos en el combate? Supongamos un tanque autocontrolado, capaz de orientarse perfectamente en el espacio, reconocer los objetos al instante y disparar en línea recta. ¿Podría un humano resistirlo mientras controla exactamente el mismo tanque? Creo que sólo en algunas condiciones no estándar.

 
Alexey Navoykov:

¿Por qué un tema? Dice que "el tema de las preguntas no estaba restringido de ninguna manera". Además, no te obsesiones con el test de Turing. Lo ensalzas aquí como algo tan fundamental e inmutable. Aunque sólo es una idea que se inventó hace muchas décadas, y que ha sido muy criticada desde entonces.

No soy un experto en este campo, pero me parece que es bastante tendencioso juzgar la inteligencia por correspondencia. Puede que una persona no hable muy bien el idioma en el que le hablas, por lo que no te entenderá. Puede que ni siquiera sea capaz de articularse del todo porque vive en la tribu "Tumba-Yumba", donde sólo utilizan los sonidos "Y" y "A". Pero eso no significa que no tenga inteligencia. En consecuencia, la máquina tampoco tiene que entender su idioma.

Pero la idea de Turing obviamente no implica tal escenario. Es decir, todo se conduce inicialmente en algún tipo de marco. En mi opinión, se trata de una interpretación de la IA tan populachera, pensada para el ciudadano de a pie. Un robot se acerca a ti y te dice: "Saludos, terrícola". ¿Lo necesita el robot?

El test de Alan Turing está diseñado para poner a prueba la inteligencia de las máquinas frente a la inteligencia humana.

El habla se utiliza para evitar las trampas, ya que un ordenador puede hacer las tareas tan bien como un humano. En la prueba se utiliza el discurso escrito porque cualquier ordenador suspenderá el verbal. Las "indulgencias" se crean para el ordenador, no para una persona. La prueba pone a prueba hasta qué punto un ordenador "piensa" como un humano, no hasta qué punto un ordenador puede "engañar" a la gente fingiendo ser un salvaje "Tumbu Yumbu" detrás de una cortina o un bebé balbuceante. Según tú, el juez debe pensar que si uno de los entrevistados contesta como un idiota, se trata de una persona con síndrome de Down y no de un ordenador? )

Una máquina con la inteligencia de un tiburón no tiene sentido. Un tiburón se deja llevar por los instintos de su programa de vida, formado en el curso de la evolución. Una máquina con un programa así sería completamente inútil e incontrolable. Sus acciones no tienen sentido ni para las personas ni para ella. Esta chatarra desbocada será neutralizada lo antes posible.

El peligro de una IA así para la humanidad es incluso menor que el de un tonto en un tanque, aunque sólo sea porque el tonto sigue siendo humano y el tiburón es un animal. Estos fenómenos, en mi opinión, deberían definirse como un fallo de un sistema complejo, no como una manifestación de la IA. También el fracaso del test de Alan Turing por parte de un ordenador debería considerarse un fracaso, sin justificar el resultado con argumentos como:"el ordenador simplemente "no entiende" su lenguaje, y además es autista". ))

 
Alexey Navoykov:

Bueno, estamos hablando de equipos originalmente listos para el combate. No nos asusta que una nevera se vuelva loca.

¿Qué te hace pensar que serán inferiores a los humanos en el combate? Supongamos que existe un tanque autoguiado que puede orientarse perfectamente en el espacio, reconocer objetos al instante y disparar con precisión. ¿Podría un humano resistirlo mientras controla exactamente el mismo tanque? Creo que sólo en algunas condiciones no estándar.

Dividamos el peligro de la IA en dos categorías: "fracaso de un sistema complejo" y "autoconciencia adquirida".

Sobre el fracaso de un sistema complejo que mencioné anteriormente. Si los frenos fallan y la máquina empieza a aplastar a la gente, no significa que se haya dado cuenta y se esté vengando de la humanidad. Los humanos siempre encontrarán la manera de hacer frente a esa maquinaria.

El peligro de la segunda categoría es visto por la gente como el aislamiento de la IA sobre sí misma y sus intereses, y el uso de las ventajas tecnológicas y militares para lograr sus objetivos. En el centro del escenario, la gente coloca el ego pellizcado de la máquina, que supuestamente está cansada de trabajar para los humanos y al darse cuenta de su superioridad quiere ganar su independencia.

Este escenario sólo es posible si uno tiene plena conciencia de sí mismo y de su psique. Como dije antes, esto no puede ser creado a nuestro nivel de comprensión de la Conciencia y la Psique.

No podemos reproducir lo que no entendemos en absoluto.

 

Para una persona que se encuentra en un determinado nivel de desarrollo, los problemas-preguntas-tareas que están dentro de su nivel de horizonte le resultarán comprensibles. Todo lo demás que esté más allá de su comprensión le resultará inaccesible, ya sea la motivación de una hormiga o la tecnología de unos hipotéticos extraterrestres.

Basta con pensar en cómo veían el futuro las personas que vivían hace apenas 100 o 200 años, pues veían el mundo en el que vivimos como una fantasía. La forma en que entendieron la tecnología hoy en día está más allá de la imaginación. Pero ellos, y nosotros, somos todos seres humanos. Ni siquiera entenderían lo que se les pide en esas pruebas, por muy rebuscadas que sean.

Cualquier prueba es un marco. Además, una prueba puede decir mucho sobre el escritor, sobre su nivel de desarrollo, sobre su marco.

 
Олег avtomat:

Para una persona que se encuentra en un determinado nivel de desarrollo, los problemas-preguntas-tareas que están dentro de su nivel de horizonte le resultarán comprensibles. Todo lo demás que esté más allá de su comprensión le resultará inaccesible, ya sea la motivación de una hormiga o la tecnología de unos hipotéticos extraterrestres.

Basta con pensar en cómo veían el futuro las personas que vivían hace apenas 100 o 200 años, ya que veían el mundo en el que vivimos como una fantasía. La forma en que entendieron la tecnología hoy en día está más allá de la imaginación. Pero ellos, y nosotros, somos todos seres humanos. Ni siquiera entenderían lo que se les pide en esas pruebas, por muy rebuscadas que sean.

Cualquier prueba es un marco. Además, una prueba puede decir mucho sobre el escritor, sobre su nivel de desarrollo, sobre su marco.

Ya veo por dónde va tu lógica con esto.

"Si un ordenador suspende una prueba, no significa que no tenga inteligencia. Quizá piense de forma diferente a nosotros. Tal vez no debamos entenderla y ella no deba entendernos". Y así sucesivamente...

¿Te imaginas que esa fuera la pregunta que se planteara en los exámenes escolares? )

 
Реter Konow:

Ya veo por dónde va tu lógica con esto.

"Si un ordenador no pasa la prueba, no significa que no tenga inteligencia. Tal vez piense de forma diferente a nosotros. Tal vez no debamos entenderla y ella no deba entendernos". Y así sucesivamente...

¿Te imaginas que la pregunta se planteara así en los exámenes escolares? )


Es una cosa extraña. Se supone que sabes de lo que estoy hablando... ...y basándose en eso, me atribuye su especulación. Pero es tu visión distorsionada la que ha dado la vuelta a mis palabras.

Razón de la queja: