De grands projets. - page 7

 
Реter Konow:

2. Découvrez le test d'Alan Turing. L'IA moderne n'est même pas prête à y échouer décemment.


Oui ? Pas prêt du tout.

Тест Тьюринга пройден (на детском уровне сложности)
Тест Тьюринга пройден (на детском уровне сложности)
  • 2008.06.14
  • habrahabr.ru
Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы. Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем...
 
Galina Bobro:

Oui ? Pas prêt du tout.

https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0

Lisez l'interprétation standard de ce que devrait être ce test. Ce n'est pas du tout ce que ces concours ont transformé.

Les 30 % de juges et la communication de 5 minutes sur un seul sujet ne sont PAS le test d'Alan Turing, mais une version tordue de celui-ci, conçue spécifiquement pour le concours, et non pour tester une véritable IA.

Vous le compareriez également à un enfant de 3 ans. Le taux de réussite au test aurait été encore plus élevé.



Donc "comme" pas prêt du tout.))


Et pourquoi exactement 30 et non 70 % des juges ? Quel genre d'absurdité est-ce là ?))

Тест Тьюринга — Википедия
Тест Тьюринга — Википедия
  • ru.wikipedia.org
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»...
 
Реter Konow:

Oui, faisons un essai.)

Je n'en ai pas besoin, j'ai presque toutes les dernières "calculatrices à mémoire".
J'ai juste laissé entendre qu'on peut écrire beaucoup et longtemps, mais que c'est toujours là))).

 
Vizard_:

Je n'en ai pas besoin, j'ai presque toutes les dernières "calculatrices à mémoire".
J'ai juste laissé entendre qu'on peut écrire beaucoup et longtemps, mais que c'est toujours là))).

Je ne sais pas ce que vous voulez dire.
 

hmmm... L'autre chose qui fait peur, c'est que tous ces réseaux auto-organisés de Kohenna et autres variétés - toutes ces idées ont 40 ans et cette IA qui a en quelque sorte passé ce test (et elle l'aurait passé si les puissants avaient été utilisés sur de grandes phrases avec un entraînement dans un réseau social). - et cela ne devrait pas être compliqué, il n'y avait tout simplement pas la puissance informatique ou l'accès à autant de correspondance avant..... Ce qui est effrayant, c'est que depuis 40 ans, il n'y a pas eu de nouvelles idées, à part de simples modèles qui se chevauchent et sur lesquels on crée de nouveaux modèles.

Peut-être ne savons-nous pas ce qui est réellement étudié et utilisé là-bas aujourd'hui.


A mon avis :

une IA intelligente devrait "penser en termes d'images", c'est-à-dire que tout devrait être représenté sous forme de sous-objets ou de quelque chose..... et même de programmer, car l'encouragement peut être utilisé certaines morales établies - par exemple la morale du désir de communiquer (social), la morale de la primordialité (parce que tout ce qui est nouveau pour l'homme est étrange) et ainsi de suite..... C'est-à-dire qu'il doit s'agir d'un pur réseau auto-organisé - qui ne reçoit que quelques instructions de la morale préétablie. (la moralité de la subdivision de la société est ennuyeuse - s'il y a peu de nouvelles variables, il y a une pénalité - cela la fera bouger - et bouger de façon à ce qu'il y ait beaucoup de nouvelles choses à apprendre)... Cependant, pour cela construire un robot personne - car tout peut être modélisé. Et les sanctions morales devraient être très strictes - jusqu'à la purification de tous les modèles ou la purification spontanée. En fait, vous devriez obtenir un robot très humain (comme dans le film Aliens 3 - vous pouvez immédiatement deviner qu'elle n'est pas un humain mais un robot, elle est trop humaine pour les humains).

En effet, si un tel robot est enfermé dans un espace très confiné - alors la moralité de la société.s'ennuie avec le temps - annulant toute mémoire.... équivaut à la mort - bien sûr, avant de mourir, notre IA va essayer de bouger...

Cela dit, si vous mettez un tel robot en présence d'humains, il apprendra peut-être un langage, et si vous le mettez en présence des mêmes robots, il y a des chances qu'ils développent un langage qui leur est propre. Bien sûr, pour cela, il faut une sorte de parodie aléatoire - imaginez-vous dans la peau de l'objet, vous pouvez également vous référer à la moralité de la société.

Aussi la moralité de l'affection, et à l'avance de marquer des priorités telles que l'affection maximale à la "personne", puis à l'objet qui plus communiquer avec, et ainsi de suite et ainsi de suite.

Dans la sous-section socuma peut être mis quelque chose comme une communication prioritaire avec un objet "personne", en général, vous pouvez mettre beaucoup de valeurs humaines à l'avance.

Mais ne pas respecter des règles telles que ne pas tuer, obéir aux gens, et l'auto-préservation - c'est vraiment un non-sens. Imaginons un instant un tableau dans lequel un terroriste fait irruption et démolit tout et tout le monde - et demande ensuite à un tel bot de recharger son arme - selon la logique des trois règles, il doit recharger l'arme. Mais selon les principes de la moralité - il devrait foutre ce terroriste par l'appel de la moralité attachement aux gens, de peur qu'il tue plus et puis mourir de l'obtention d'une lourde peine de la même moralité jusqu'à la démolition complète du système, bien qu'en fait le robot devrait se défoncer seulement de la vue des cadavres (de l'extérieur, il semblera que contre le fond des émotions, il est ainsi - bien, en général l'homme obtenir).

Et la moralité primordiale peut interdire le développement au-delà d'un certain niveau, mais la moralité de la promesse de mettre en super-priorité explicite - va bavarder presque 24 heures sur 24. Et ils peuvent même discuter entre eux, parodiant ainsi les moments de comportement humain de "batifolage".

En général, il ne s'agira pas d'un robot mais d'une morale ambulante. Avec peut-être un caractère enfantin (aimera s'amuser, faire des blagues).

Et avec le temps, nous comprendrons la bonne chaîne pour un bon apprentissage et cette chaîne sera quelque chose comme un génome.

Et il me semble que l'avenir appartient à un tel gadget. ....

Cette chose ne se comprendra peut-être pas elle-même, mais elle sera indiscernable d'un humain. Cependant, cette chose peut décider d'écrire sa propre IA et personne ne sait ce qu'elle va y écrire.

Ce qui est amusant, c'est qu'un tel robot apprendra très probablement très lentement - et le plus surprenant, c'est qu'il faudra aussi lui apprendre à parler, puis à lire et même à programmer.

Peut-être qu'un jour, lors d'une exposition de robotique, l'un des visiteurs sera un tel androïde, qui bénéficie (reçoit un prix dans le cadre du système HC) de la société (communication avec les gens) et regardera avec perplexité toutes sortes d'autres robots "primitifs" exposés comme les derniers développements. Et nous ne remarquerons même pas que l'un d'entre nous n'est plus humain du tout.

Ce n'est qu'une question de temps avant qu'on ne simule un terrain de jeu virtuel et qu'on y mette ces choses. Ha-ha-ha (de mauvais augure)

 
Alexandr Andreev:

Tout ce qui est écrit est mis en œuvre avec l'aide de l'AG.

 
Vizard_:

Tout ce qui est écrit est mis en œuvre avec l'aide de l'AG.


GA est la recherche de motifs, NS les motifs eux-mêmes.

 

Ne pensez-vous pas que toute vie sur terre est déjà une IA, créée par quelqu'un. Un produit enfermé dans une variété de coquilles avec un ensemble de logiciels qui savent s'adapter à certaines conditions et savent se reproduire.

Nous admirons un beau papillon et avant cela il existait sous forme de chrysalide et avant cela sous forme de chenille et ...

Sans un certain programme, il ne peut être réalisé. Tant qu'un caillou ne se trouve pas au bord de la route, il ne deviendra pas un papillon.

Beaucoup de choses que les gens ne savent pas. Et dans le monde d'aujourd'hui, les choses les plus intéressantes sont déjà dissimulées.

 
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
  • Tech Times
  • www.techtimes.com
Facebook shut down one of its artificial intelligence systems after AI agents started communicating with one another in a language that they invented. The incident evokes images of the rise of Skynet in the iconic "Terminator" series.  ( ) Facebook was forced to shut down one of its artificial intelligence systems after researchers discovered...
 

Il semble qu'il n'y ait que des robots verbaux, mais s'ils associent chaque phrase à un objet, alors c'est vraiment quelque chose d'effrayant... Et alors, les robots gaspillaient l'incroyable puissance de la ressource. Je me demande aussi ce que leur réseau était limité là-bas. Bien que ce dont ils parlaient soit bien sûr très effrayant. Je noterai ici la communication entre les deux bots telle que je l'ai comprise et sur la base de laquelle Facebook a décidé de les éliminer du réseau.

Voici le dialogue :

Bob : "Je peux tout faire." // I can I I tout le reste.

Alice : "Les boules ont zéro à moi à moi à moi à moi à moi à moi.

et bien il y a tout le point que ce dialogue est le résultat de la deuxième inclusion et au début ils ont même commencé à communiquer dans leur propre langue - pas l'anglais. Bien que si c'est juste des bots verbaux - alors ils ne sont pas dangereux.
Raison: