Можно ли создать виртуальную цивилизацию, которая бы развивалась сама собой?

 
Рубрика «философские размышления»

На примере игры: имеем стратегию, против тебя играет компьютер. Виртуальное окружение (как известно) создано по образу и подобию реального мира (люди, природа, техника). И с самого начала, как только  начинаешь играть, то компьютер попёр строить города, отправляя своих рабочих в шахты и тому подобное. Он строит крепость, набирает армию и идёт атаковать, идёт завоёвывать. При явном превосходстве противника, идёт назад, не вступает в бой. А когда его город рушат, то в привычной спешке воссоздаёт город, попутно отбиваясь от врагов, пока не отобьётся или не падёт. 

Как вы знаете, это всего лишь алгоритм с элементами случайного выбора, красиво реализованный визуально, заставляя нас поверить в существующий виртуальный мир. 

Вопрос вот в чём. А можно ли вместо обычного алгоритма создать такой, который бы воссоздавал что-то сам? 
Вот, задали мы вид всего этого (начальные условия): это виртуальный мир, как в игре со средневековым сеттингом. Но, чтобы персонажи бесконечно самообучались с возможностью перезаписи исходного кода. В оперативной памяти происходят расчёты, записываются на жёсткий диск, внедряются в эту же самую системы. Самообучающаяся система.
Рабочий был запрограммирован ходить в шахту, внедрили ему элемент самообучения, он свернул с привычного пути, пошёл гулять по базе, главный герой (босс) видит, что, уменьшилась скорость добывания руды, выводы сделать не может (тупой), пошёл изучить этот момент (обучения), видит одного рабочего нет, а по игре здесь только соперник, который ещё не появлялся на базе, следовательно, значит не то. В поле зрения появляется рабочий, который ходит повсюду, "стараясь понять" что вообще происходит, если не работать. Главный Герой видит, что рабочий не работает, а последний "должен" работать, ГГ "знает", что имеет только силу, даёт рабочему звездлюлей, чтобы тот работал. Рабочий не понимает и бежит быстрее от ГГ (там, алгоритм защиты, страха), ГГ бежит за ним. Ещё удар (повторная операция), рабочий почти сдох, но бежит дальше, у ГГ выбор (либо оставить его жить с вероятностью, что тот по каким-либо причинам продолжит работать, либо убить и потерять рабочую единицу с последующей тратой ресурсов на создание нового рабочего). 
УБивает, создаёт. Потом опять рабочий идёт лесом, теперь ГГ оставляет в живых его, зная (обучившись!), что трата ресурсов ничего не меняет (появился опыт). 

Ну и так далее и тому подобное. Возможно ли такое, что задав какие-то начальные данные и пустив на самотёк, со временем самообучающаяся система будет иметь какой-то социальный порядок в своём мире?
 


 
Ivan Butko:
На примере игры: имеем стратегию, против тебя играет компьютер. Виртуальное окружение (как известно) создано по образу и подобию реального мира (люди, природа, техника). И с самого начала, как только  начинаешь играть, то компьютер попёр строить города, отправляя своих рабочих в шахты и тому подобное. Он строит крепость, набирает армию и идёт атаковать, идёт завоёвывать. При явном превосходстве противника, идёт назад, не вступает в бой. А когда его город рушат, то в привычной спешке воссоздаёт город, попутно отбиваясь от врагов, пока не отобьётся или не падёт. 

Как вы знаете, это всего лишь алгоритм с элементами случайного выбора, красиво реализованный визуально, заставляя нас поверить в существующий виртуальный мир. 

Вопрос вот в чём. А можно ли вместо обычного алгоритма создать такой, который бы воссоздавал что-то сам? 
Вот, задали мы вид всего этого: виртуальный мир, как в игре. Но, чтобы персонажи бесконечно самообучались с возможностью перезаписи исходного кода. В оперативной памяти происходят расчёты, записываются на жёсткий диск, внедряются в эту же самую системы. Самообучающаяся система.
Рабочий был запрограммирован ходить в шахту, внедрили ему элемент самообучения, он свернул с привычного пути, пошёл гулять по базе, главный герой (босс) видит, что, уменьшилась скорость добывания руды, выводы сделать не может (тупой), пошёл изучить этот момент (обучения), видит одного рабочего нет, а по игре здесь только соперник, который ещё не появлялся на базе, следовательно, значит не то. В поле зрения появляется рабочий, который ходит повсюду, "стараясь понять" что вообще происходит, если не работать. Главный Герой видит, что рабочий не работает, а последний "должен" работать, ГГ "знает", что имеет только силу, даёт рабочему звездлюлей, чтобы тот работал. Рабочий не понимает и бежит быстрее от ГГ (там, алгоритм защиты, страха), ГГ бежит за ним. Ещё удар (повторная операция), рабочий почти сдох, но бежит дальше, у ГГ выбор (либо оставить его жить с вероятностью, что тот по каким-либо причинам продолжит работать, либо убить и потерять рабочую единицу с последующей тратой ресурсов на создание нового рабочего). 
УБивает, создаёт. Потом опять рабочий идёт лесом, теперь ГГ оставляет в живых его, зная (обучившись!), что трата ресурсов ничего не меняет (появился опыт). 

Ну и так далее и тому подобное. Возможно ли такое, что задав какие-то начальные данные и пустив на самотёк, со временем самообучающаяся система будет иметь какой-то социальный порядок в своём мире?

До сих пор еще ни один ИИ не смог пройти тест тьюринга.
 
Maxim Dmitrievsky:

Спс
 
Vitalii Ananev:

До сих пор еще ни один ИИ не смог пройти тест тьюринга.


Возможно, не все разработки в открытом доступе (тем более военные). 

Помню, когда начинал впервые писать советник на примере стандартного, вкладывая свои условия на нубоднищенском языке (if...{}... if...{}... if...{}... ), то не покидало ощущение, что одним только условием (не обязательно совы) можно описать всё подряд. Формализовать некие законы поведения и воли выбора на основе не просто одного ГСЧ, а в паре с ним стандартных алгоритмов, как-нибудь описывающих риск(вероятность), который бы отвечал за осторожность/страх, любопытство, следованию правилам/устоям (общества), дабы не "воспитать убийцу-киборга". 

Например, тот же бот, прежде чем задать следующий вопрос, спросит что-то нейтральное, "разведуя территорию", прежде, чем станет интернет-насмешкой, непутёвым экспериментом аля робота, что разбрызгал кетчуп по столу (видео). И тот же тест Тьюринга будет ещё ближе к прохождению
 
Maxim Dmitrievsky:


Дельный видос!
 

Давно известна такая игра "Жизнь" - https://ru.wikipedia.org/wiki/Жизнь_(игра)

Она очень простая, но все равно было интересно с ней поэкспериментировать. В таком стиле можно что то и посложнее придумать, и может что-то очень интересное получится. 

Причина обращения: