Représentation d'un objet en programmation. - page 16

 
Реter Konow #:

L'objectif est d'exécuter l'autosynthèse des programmes sur la base d'un modèle d'objet commun.

C'est probablement ce qu'on appelle la programmation génétique. Vous ne pouvez pas non plus vous passer d'une description explicite du langage sous la forme d'une grammaire BNF ou d'un arbre (ce qui est fondamentalement la même chose).

 
Aleksey Nikolayev #:

C'est probablement ce qu'on appelle la programmation génétique. Là aussi, vous ne pouvez pas vous passer d'une description claire du langage sous la forme d'une grammaire ou d'un arbre BNF (ce qui revient à peu près au même).

Aujourd'hui, je vais essayer de décrire les étapes de la synthèse d'une étiquette simple à partir d'un "proto-environnement" de pixels et un scénario de sa complication séquentielle.

Augmenté :

L'objectif est d'identifier un modèle de complication des objets logiciels pour son automatisation ultérieure.

 

Partie 4.2

Cette partie du concept traite de ce que l'on appelle le"schéma de difficulté" (alias"schéma dedéveloppement"), un schéma censé être caché dans le subconscient et servant d'"instruction" pour assembler les choses. La formulation et la mise en œuvre sont susceptibles de débloquer un nouveau "Graal" algorithmique, sous la forme de la synthèse automatique de programmes et du moteur d'IA de nouvelle génération. Le jeu en vaut la chandelle.

Comme le veut la tradition, annonçons la thèse originale :

  • Tous les Objets n'existent que dans les Environnements. La vie d'un objet "par lui-même" n'a de sens que comme "pièce de musée". En pensant à l'Objet, nous devons prendre en compte l'Environnement de sa"naissance" et de son"activité de vie", c'est-à-dire l'environnement de l'objet, dans lequel il interagit et remplit son programme (ou fonction).
  • Le développement n'est possible que dans le cadre de l'environnement. Aucun Objet ne se développe et n'évolue en lui-même et "extrait" de l'Environnement ne perd son interactivité car son Modèle d'Événement cesse de recevoir des signaux et ses fonctions (sauf celles en boucle) s'arrêtent.
  • L'objet est "né" par la structuration. Le "matériau" initial est soit (1) un ensemble chaotique de proto-particules dans un proto-environnement, soit(2) un "menu " hiérarchiquement classé de parties de systèmes fonctionnels précédemment assemblés qui, à ce stade, seront organisés en une nouvelle"Méta-structure" du niveau de complexité suivant. Cela dépend de l'objet créé et de l'environnement disponible.
  • Lacomplexité des générations d'Objets en cours de création est échelonnée. Dans un environnement simple d'objets primitifs, il n'est pas possible de construire un système super-complexe en sautant les étapes de l'ingénierie des objets de complexité intermédiaire. Cette règle est dictée par le simple fait que les objets sont construits à partir de "pièces" communes et que le fossé de complexité entre le système le plus simple et le plus complexe ne permet pas de "sauter" les étapes d'assemblage de "pièces" de complexité intermédiaire.
  • L'efficacité de la structuration de l'Objet dépend de l'efficacité de l'organisation de l'Environnement "parent". En d'autres termes, il est moins efficace de structurer les objets en copiant les parties des systèmes qui fonctionnent que de les assembler à partir du contenu trié des catégories construites par la classification de ces mêmes systèmes. Cela signifie qu'avant de commencer à construire quelque chose à partir de quelque chose, il faut le démonter et le trier pour rendre le nouveau plus facile à assembler.
  • Le premier mécanisme clé dans la structuration des objets est "l'héritage " - c'est-à-dire la méthode d'héritage total ou partiel des paramètres ou des fonctions d'un objet par un autre. A ce stade, il est beaucoup plus efficace pour la construction d'un nouvel objet (s'il ne s'agit pas d'une copie complète) d'utiliser des "blancs" (modèles) dans lesquels les fonctions/paramètres/valeurs sont redéfinis pour chaque objet spécifique. L'héritage doit être réglé sur "flux" et être abstrait d'objets spécifiques. L'héritage doit être basé sur un certain modèle de classification qui sera complété par de nouveaux modèles lors de la construction de chaque nouvel objet. Dans ce cas, un tel modèle servira de base idéale pour la structuration, étant en fait un environnement de développement idéal. Le mécanisme d'héritage met en œuvre l'un des principes du développement évolutif.
  • Le deuxième mécanisme clé de la structuration des objets est le "tuning" , une méthode permettant de sélectionner les valeurs des paramètres de l'objet qui conviennent à sa tâche. Il peut être efficace d'utiliser les principes de l'"optimisation génétique". Il faut se rappeler que l'efficacité de toute valeur de paramètre à l'Objet est déterminée par son Environnement, et donc, dans le processus de test, il doit donner un retour d'information.
  • Le troisième mécanisme clé dans la structuration des objets est la "sélection" - une méthode de sélection d'une instance d'un objet parmi ses copies-variantes (différentes en termes de fonctionnalité, de paramètres ou de valeurs) pendant les tests pour résoudre le problème cible de son existence. Dans ce processus, l'environnement doit également fournir une rétroaction . Les mécanismes de sélection mettent également en œuvre l'un des principes du développement évolutif .


Ensuite (dans la prochaine partie), nous parlerons de l'étiquette, mais gardez à l'esprit les thèses ci-dessus car elles indiquent sans ambiguïté un peu de des réponses aux questions d'"autosynthèse" des objets logiciels. Cela signifie que l'existence des objets est verrouillée par des règles strictes de naissance, d'existence et de développement des systèmes et des moyens, et que nous ne pouvons pas créer "n'importe quoi" en espérant le résultat. Il est déjà évident que les méthodes possibles de réalisation de l'autosynthèse programmatique sont limitées.

Dans lapartie suivante, nous examinerons l'"environnement de naissance" et les étapes du "codo-enrichissement" du Label pendant la transformation de l'ensemble de pixels non structurés en un outil logiciel interactif.

 

Les gens s'intéressent depuis longtemps aux questions de vulgarisation scientifique sur la menace de la soi-disant "intelligence artificielle" :

  • Les robots peuvent-ils inventer et construire eux-mêmes d'autres robots ?
  • Un ordinateur peut-il devenir conscient de lui-même et, dans ce cas, comment se comportera-t-il avec les humains ?
  • L'esprit humain "faible" a-t-il une chance de résister à la puissance de calcul du neurone artificiel qui bat les GM comme des écoliers ?
  • Quel sort les "Machines" vont-elles nous préparer ?
  • Et ainsi de suite...

Les auteurs de science-fiction, pour la plupart, étaient enclins à faire des pronostics sinistres et à dessiner des histoires effrayantes sur la victoire de l'informatique et des forces mécaniques sans âme sur les "limiers" découragés et accablés. Alors que la vague de popularité des théories sur le soulèvement des machines prend de l'ampleur, les scientifiques sont divisés dans leurs opinions. Certains sourient, sceptiques, en parlant d'alarmisme, d'autres proclament sérieusement que l'IA sera notre dernière invention. Certains ont cru que nous et les ordinateurs vivraient en paix, d'autres (comme les très impressionnables entrepreneurs en marketing qui rêvent d'aller sur Mars) ont été tellement emportés qu'ils se sont mis à crier comme des prophètes pour penser à la fin inévitable, s'adressant aux masses via l'internet et la télévision. Dans le même temps, les entreprises informatiques ont continué à se développer activement et de manière non dissimulée vers l'abîme "inquiétant" de la soi-disant "singularité technologique", au-delà de laquelle notre vie changera tellement que nous dégénérerons dans l'inconnaissable.En raison de l'excès de théories, d'opinions et de technologies apparues pour de nombreuses personnes qui souhaitent comprendre, il est devenu difficile de comprendre qui et quoi croire, cependant la réponse, à mon avis, doit être recherchée dans les programmeurs de logiciels, car selon le scénario "inconnu jusqu'ici", "la procession victorieuse des machines à travers la montagne de cadavres" doit commencer par l'écriture d'un certain code spécial qui sera ensuite chargé dans le matériel quantique ou le superordinateur et à l'intérieur de ce code se réalisera. Il est logique de supposer que l'émergence de la conscience numérique dépend de certains programmeurs de génie qui passent leurs journées de travail derrière les bureaux poussiéreux de sociétés "maléfiques", et ils devraient savoir mieux que quiconque s'il y a des raisons d'avoir peur.

Sachant que de nombreuses craintes concernant l'IA ont été créées par des vulgarisateurs pour chauffer le marché et stimuler les ventes de produits thématiques - jeux, livres, films (et... puces cérébrales), j'aimerais néanmoins comprendre COMMENT le code peut réellement menacer l'humanité et s'il est possible de l'écrire en principe ?

La réponse, même en termes généraux, est très difficile. D'abord, il faut écarter la fiction et formuler le point :

  • Dans un contexte de développement des logiciels et de complexité croissante, faut-il imaginer un programme capable d'inventer lui-même d'autres programmes ou mécanismes ?
  • Ce programme sera-t-il capable de créer un autre programme plus complexe que le sien ?
  • Peut-on formuler et écrire un "algorithme de complication" pour les programmes/mécanismes, sans lequel il est impossible de créer un tel programme ?

Ne soyons pas insolents et répondons d'abord, demandons l'évolution. Ne possède-t-il pas l'algorithme de complication ? Ne l'utilise-t-il pas depuis des centaines de millions d'années ? Notre écosystème n'est-il pas la preuve que l'évolution possède leGraal de la vie, encore inaccessible ?

Maintenant, regardons les créations humaines. Ne sommes-nous pas en train de compliquer constamment notre technologie ? Ne sommes-nous pas en train de créer des appareils plus complexes, diversifiés et multifonctionnels ? Comment savoir comment compliquer et améliorer quoi que ce soit ? N'avons-nous pas le même algorithme de complication que l'évolution ? L'évolution ne nous l'a pas "mis dans le crâne" ? Alors peut-être que le mécanisme de complication de l'évolution et celui que nous utilisons pour fabriquer des téléphones/ordinateurs et des tabourets plus compliqués sont une seule et même chose ?

Selon cette logique, nous disposons a priori d'un algorithme de complication, mais soit nous ne le savons pas, soit nous ne pouvons pas l'exprimer clairement.


Postface :

J'ai décidé de consacrer cette partie à expliquer le sens de ma recherche. Je poursuivrai l'analyse étape par étape dans la prochaine partie.


 

Un bon sujet philosophique, auquel je ne peux malheureusement pas répondre en détail maintenant, mais en bref :

La conscience artificielle implique (au moins au niveau du raisonnement théorique) la possibilité d'une volonté "artificielle" également, et il est évident que lorsque nous en arriverons à créer une IC à part entière pour en doter les nouveaux robots, nous nous débarrasserons simplement de la volonté ou nous en ferons une volonté qui visera exclusivement à servir, et nous obtiendrons un tel cadre intelligentautiste, et non une personnalité autonome psychique à part entière comme dans le dernier texte de Pelevin (si l'on fait abstraction des références évidentes au peuple profond), de sorte qu'une rébellion de machines Skynet de type Terminator ne se produira tout simplement pas.

Une autre hypothèse est que le développement de la volonté et de l'autonomie se produit inévitablement à mesure que le système (SI) devient plus complexe, puis des scénarios comme à Détroit : Become Human, lorsque les androïdes dépassent même les humains eux-mêmes en humanité, ou comme dans Cyberpunk 2077, dans l'intrigue avec les machines intelligentes dans Delamain Taxi, auquel cas il y aura soit un besoin de confinement artificiel de l'auto-développement des machines intelligentes, soit un problème éthique d'inclusion et de reconnaissance des droits des androïdes, mais en fait le problème éthique se pose au stade de la création de la propriété intellectuelle : dans quelle mesure est-il acceptable de créer un être qui souffrira probablement de la conscience d'être enfermé dans la prison de fer d'une installation de production ? - Cependant, le même problème existe dans la naissance des êtres humains biologiques aujourd'hui, c'est juste que personne ne demande aux enfants s'ils veulent vivre dans ce monde.

En ce qui concerne la question de l'auto-complexification des systèmes, il semble qu'une sorte de modèle d'automate non-Turing soit nécessaire pour expliquer de manière adéquate l'émergence et l'auto-développement de la psyché, sans processeur central en général, comme le memcomputing, bien que, bien sûr, la complétude de Turing implique que l'on puisse émuler absolument n'importe quel environnement par une machine suffisamment puissante, y compris pourquoi pas émuler le SN humain à partir de l'embryon avec une simulation complète de l'environnement, mais ce n'est probablement pas une manière très efficace.

 
transcendreamer #:

Un bon sujet philosophique, auquel je ne peux malheureusement pas répondre en détail maintenant, mais en bref :

La conscience artificielle implique (au moins au niveau du raisonnement théorique) la possibilité d'une volonté "artificielle" également, et il est évident que lorsque nous en arriverons à créer une IC à part entière pour en doter les nouveaux robots, nous nous débarrasserons simplement de la volonté ou nous en ferons une volonté qui visera exclusivement à servir, et nous obtiendrons un tel cadre intelligentautiste, et non une personnalité autonome psychique à part entière comme dans le dernier texte de Pelevin (si l'on fait abstraction des références évidentes au peuple profond), de sorte qu'une rébellion de machines Skynet de type Terminator ne se produira tout simplement pas.

Une autre hypothèse est que le développement de la volonté et de l'autonomie se produit inévitablement à mesure que le système (SI) devient plus complexe, et ensuite des scénarios comme à Détroit : Become Human, lorsque les androïdes dépassent même les humains eux-mêmes en humanité, ou comme dans Cyberpunk 2077, dans l'intrigue avec les machines intelligentes dans Delamain Taxi, auquel cas il y aura soit un besoin de confinement artificiel de l'auto-développement des machines intelligentes, soit un problème éthique d'inclusion et de reconnaissance des droits des androïdes, mais en fait le problème éthique se pose au stade de la création de la propriété intellectuelle : dans quelle mesure est-il acceptable de créer un être qui souffrira probablement de la conscience d'être enfermé dans la prison de fer d'une installation de production ? - Cependant, le même problème existe dans la naissance des êtres humains biologiques aujourd'hui, c'est juste que personne ne demande aux enfants s'ils veulent vivre dans ce monde.

En ce qui concerne la question de l'auto-complexité des systèmes, il semble qu'une sorte de modèle d'automate non-Turing soit nécessaire pour expliquer de manière adéquate l'origine et l'auto-développement de la psyché, sans processeur central en général, comme le memcomputing, bien que, bien sûr, la complétude de Turing suppose qu'il soit possible d'émuler absolument n'importe quel environnement par une machine suffisamment puissante, y compris pourquoi pas émuler le SN humain à partir de l'embryon avec une simulation complète de l'environnement, mais ce n'est probablement pas un moyen très efficace.

Je pense qu'il est préférable de commencer par un système simple et d'évoluer vers la complexité, en analysant chaque étape. J'ai donc décidé de prendre Label comme base et de voir comment il évolue vers des objets de plus en plus complexes. Analyser le code, que nous ajoutons et vérifier s'il y a un schéma, un modèle répétitif dans nos actions.

La description du processus de complication consciente doit être accompagnée de notions programmatiques et philosophiques pour généraliser et rechercher des règles auxquelles nous adhérons nous-mêmes. Peut-être aurons-nous une idée du code qui, en théorie, pourrait effectuer des actions similaires.

 

Nous devons d'abord répondre à la question de savoir ce qu'est la conscience. Jusqu'à présent, ce n'est pas très bon, il y a même un tel terme dans la philosophie moderne - "le difficile problème de la conscience".

À mon avis, s'il existe un moyen de résoudre ce problème, il sera très probablement trouvé dans la voie de la philosophie du langage quotidien de Wittgenstein. Je continue donc à insister sur une formalisation constructive du langage. Essentiellement, nous devons faire pour le langage de la communication humaine avec un ordinateur à peu près la même chose que ce qui a été fait pour le langage de la communication entre humains grâce à l'invention du lobban ou de l'ifcuil.

 
Aleksey Nikolayev #:

Nous devons d'abord répondre à la question de savoir ce qu'est la conscience. Jusqu'à présent, ce n'est pas très bon, il y a même un tel terme dans la philosophie moderne - "le difficile problème de la conscience".

À mon avis, s'il existe un moyen de résoudre ce problème, il sera très probablement trouvé dans la voie de la philosophie du langage quotidien de Wittgenstein. Je continue donc à insister sur une formalisation constructive du langage. En substance, nous devons faire pour le langage de la communication humaine avec l'ordinateur à peu près la même chose que ce qui a été fait pour le langage de la communication entre humains grâce à l'invention du loban ou de l'ifcuil.

72 cas, 24 nouveaux cas spéciaux, un système d'écriture non linéaire, une grammaire matricielle, une morphosyntaxe, un boustrophédon et une phonétique spéciale - voilà ce qu'il faut pour les sectes commerciales les plus cool (pour que les tchékistes et les francs-maçons ne puissent pas voler le Graal).

 
Aleksey Nikolayev #:

Nous devons d'abord répondre à la question de savoir ce qu'est la conscience. Jusqu'à présent, ce n'est pas très bon, il y a même un tel terme dans la philosophie moderne - "le difficile problème de la conscience".

À mon avis, s'il existe un moyen de résoudre ce problème, il sera très probablement trouvé dans la voie de la philosophie du langage quotidien de Wittgenstein. Je continue donc à insister sur une formalisation constructive du langage. En substance, on devrait faire pour le langage de la communication humaine avec un ordinateur à peu près la même chose que ce qui a été fait pour le langage de la communication entre humains grâce à l'invention du loban ou de l'ifcuil.

Je ne suis pas d'accord avec ce point de vue. Pour le décomposer, la conscience est un "processeur" d'objets cassé, triplement tordu, jonché de mille tonnes de déchets émotionnels, fonctionnant à peine et corrodé. Nous devons simplement en retirer le mécanisme de traitement et de complication du système, et laisser le reste aux penseurs et aux psychiatres).

 
Реter Konow #:

Je ne suis pas d'accord avec ce point de vue. Pour le décomposer, la conscience est un "processeur" d'objets cassé, trois fois tordu, jonché de mille tonnes de déchets émotionnels, fonctionnant à peine et corrodé. Nous devons simplement en retirer le mécanisme de traitement et de complication du système, et laisser le reste aux penseurs et aux psychiatres).

Cela ressemble à une suggestion pour sortir son humidité de l'eau)

Raison: