AI 2023. Встречайте ChatGPT. - страница 147

 
Реter Konow #:
Взвесте обьем информации в сфере Разума, и сравните его с обьемом информации имеющей отношение к физической материи. 

Материя "бедна" на информацию. А теперь, сколько информации создал человеческий интеллект за историю развития цивилизации?

Ну, так кто источник информации?

информация в неживой системе, как и информатике, интерпретируется как уменьшение неопределенности (мера упорядоченности системы)

простевший пример с увеличивающейся энтропией в замкнутой среде (сосуд с газом)

наверное 5-й раз уже пишу

источником информации является материальное взаимодействие открытых систем

такое ощущение, что тебе Гугл отключили. Или просто любишь капсулироваться в своих идеях, теряя информацию.
 
lynxntech #:

можно по пунктам под итожить результат


А можно над итожить?
 
Maxim Dmitrievsky #:

информация в неживой системе, как и информатике, интерпретируется как уменьшение неопределенности (мера упорядоченности системы)

простевший пример с увеличивающейся энтропией в замкнутой среде (сосуд с газом)

наверное 5-й раз уже пишу

источником информации является материальное взаимодействие открытых систем

такое ощущение, что тебе Гугл отключили. Или просто любишь капсулироваться в своих идеях, теряя информацию.
наоборот, чем больше информации на носителе, тем больше энтропия.

Диск, который был записан, имеет большую энтропию, чем чистый диск, потому что запись информации на диск вносит некоторую степень беспорядка в данные, а следовательно увеличивает энтропию системы. При записи данных на диск изменяется магнитное поле на его поверхности, создавая группы упорядоченных и неупорядоченных зон данных, которые будут считываться и интерпретироваться позже. Кроме того, при записи данных на диск возникают ошибки, которые могут быть исправлены путем добавления дополнительных битов информации, что также увеличивает энтропию.

 
Maxim Dmitrievsky #:

информация в неживой системе, как и информатике, интерпретируется как уменьшение неопределенности (мера упорядоченности системы)

простевший пример с увеличивающейся энтропией в замкнутой среде (сосуд с газом)

наверное 5-й раз уже пишу

источником информации является материальное взаимодействие открытых систем

такое ощущение, что тебе Гугл отключили. Или просто любишь капсулироваться в своих идеях, теряя информацию.

Гугл зло))) Это разные информации тогда уж, звучат одинаково, но там энтропия и мера упорядоченности, какой то чел почему то назвал это не удачно инфой. При чем тут инфа, о которой говорит Петр. С мерой упорядоченности это вообще не коррелирует. К тому же, счас с сыном обсудил, он тоже не в курсе, хотя закончил лет 5 назад и знаком с темой, что термин информация применяется в физических характеристиках газов или других веществ. С сопроматом он на ты))) Меня тоже не учили, хотя энтропию в мозг вдалбливали нормально так)))

 

К тому же , чем больше энтропия, что значит больше разных состояний (На этом наше обучение заканчивалось) тем больше инфы, как понимаю Вас, А в инфе Петра, гиг единичек и гиг единичек и нулей весит одинаково, а вот энтропия будет разной)))

Информация как мера энтропии в информатике это совсем не то,  чем говорит Петр. Это понятие энтропии из физики, когда различают состояния спокойные и изменяющиеся, давление стабильно или изменяется имеют разное количество состояний молекул внутри в другую область науки, информатику, где ее начали считать уже конкретно. Но по сути энтропия в информатике и в физике это немного разные вещи. В физике это оценочная расчетная величина, энтропию не меряют, ее считают из классических мер свойств веществ. Температура, давление, масса. Силу нажатия можно измерить, а напряжение внутри металла только рассчитать, как и изменение энтропии в газе при расширении.

 
Andrey Dik #:
наоборот, чем больше информации на носителе, тем больше энтропия.

Диск, который был записан, имеет большую энтропию, чем чистый диск, потому что запись информации на диск вносит некоторую степень беспорядка в данные, а следовательно увеличивает энтропию системы. При записи данных на диск изменяется магнитное поле на его поверхности, создавая группы упорядоченных и неупорядоченных зон данных, которые будут считываться и интерпретироваться позже. Кроме того, при записи данных на диск возникают ошибки, которые могут быть исправлены путем добавления дополнительных битов информации, что также увеличивает энтропию.

Ты отписал негэнтропию.
 
Valeriy Yastremskiy #:

Гугл зло))) Это разные информации тогда уж, звучат одинаково, но там энтропия и мера упорядоченности, какой то чел почему то назвал это не удачно инфой. При чем тут инфа, о которой говорит Петр. С мерой упорядоченности это вообще не коррелирует. К тому же, счас с сыном обсудил, он тоже не в курсе, хотя закончил лет 5 назад и знаком с темой, что термин информация применяется в физических характеристиках газов или других веществ. С сопроматом он на ты))) Меня тоже не учили, хотя энтропию в мозг вдалбливали нормально так)))

Информацию в 8 классе сейчас вроде проходят, включая энтропию. Значит не вдолбили :) это основное понятие теории информации. Даже в МО метриках используется.

Там все очень красиво связывается.

Я ни на каком физмате не учился. Але, вы че
Гугл - добро, если уметь пользоваться

 
Valeriy Yastremskiy #:
К тому же , чем больше энтропия, что значит больше разных состояний (На этом наше обучение заканчивалось) тем больше инфы, как понимаю Вас, А в инфе Петра, гиг единичек и гиг единичек и нулей весит одинаково, а вот энтропия будет разной)))
Капец вы неучи. Чем больше энтропия, тем больше потеря информации. Все, я с вами не общаюсь :) людям даже почитать лень.
 
Maxim Dmitrievsky #:
Капец вы неучи. Чем больше энтропия, тем больше потеря информации. Все, я с вами не общаюсь :)

Не, тогда уже не доучи))) В 8 классе на информатике энтропию не нашел))) Лан, в физике тогда наоборот получается. Мера неупорядоченности - количество разных состояний - энтропия. 0 спокойное состояние, элементы системы одинаковы. 1 неспокойное состояние. Вариантов состояний слишком много, что бы их можно оценить. И это не бесконечно много. Просто состояния элементов изменяются хаотично относительно друг друга.

И таки да, информации о состоянии вещества и его элементах точной при энтропии 1 у нас 0. Посчитать или оценить состояния элементов внутри у нас нет возможности. 

 

Любой инструмент добро, если уметь, и зло, если не уметь)))

Ну мера упорядоченности, возможности посчитать эти состояния, энтропия как мера количества состояний и мера потери информации о состоянии объекта это все верные понятия, только из разных наук. В общении лучше не надеяться, что все учились в одной школе)))

Вроде мнения сошлись, при энтропии 1 у нас потери инфы об объекте 100%))))

Причина обращения: