Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Взвесте обьем информации в сфере Разума, и сравните его с обьемом информации имеющей отношение к физической материи.
информация в неживой системе, как и информатике, интерпретируется как уменьшение неопределенности (мера упорядоченности системы)
простевший пример с увеличивающейся энтропией в замкнутой среде (сосуд с газом)
наверное 5-й раз уже пишу
источником информации является материальное взаимодействие открытых систем
такое ощущение, что тебе Гугл отключили. Или просто любишь капсулироваться в своих идеях, теряя информацию.можно по пунктам под итожить результат
информация в неживой системе, как и информатике, интерпретируется как уменьшение неопределенности (мера упорядоченности системы)
простевший пример с увеличивающейся энтропией в замкнутой среде (сосуд с газом)
наверное 5-й раз уже пишу
источником информации является материальное взаимодействие открытых систем
такое ощущение, что тебе Гугл отключили. Или просто любишь капсулироваться в своих идеях, теряя информацию.Диск, который был записан, имеет большую энтропию, чем чистый диск, потому что запись информации на диск вносит некоторую степень беспорядка в данные, а следовательно увеличивает энтропию системы. При записи данных на диск изменяется магнитное поле на его поверхности, создавая группы упорядоченных и неупорядоченных зон данных, которые будут считываться и интерпретироваться позже. Кроме того, при записи данных на диск возникают ошибки, которые могут быть исправлены путем добавления дополнительных битов информации, что также увеличивает энтропию.
информация в неживой системе, как и информатике, интерпретируется как уменьшение неопределенности (мера упорядоченности системы)
простевший пример с увеличивающейся энтропией в замкнутой среде (сосуд с газом)
наверное 5-й раз уже пишу
источником информации является материальное взаимодействие открытых систем
такое ощущение, что тебе Гугл отключили. Или просто любишь капсулироваться в своих идеях, теряя информацию.Гугл зло))) Это разные информации тогда уж, звучат одинаково, но там энтропия и мера упорядоченности, какой то чел почему то назвал это не удачно инфой. При чем тут инфа, о которой говорит Петр. С мерой упорядоченности это вообще не коррелирует. К тому же, счас с сыном обсудил, он тоже не в курсе, хотя закончил лет 5 назад и знаком с темой, что термин информация применяется в физических характеристиках газов или других веществ. С сопроматом он на ты))) Меня тоже не учили, хотя энтропию в мозг вдалбливали нормально так)))
К тому же , чем больше энтропия, что значит больше разных состояний (На этом наше обучение заканчивалось) тем больше инфы, как понимаю Вас, А в инфе Петра, гиг единичек и гиг единичек и нулей весит одинаково, а вот энтропия будет разной)))
Информация как мера энтропии в информатике это совсем не то, чем говорит Петр. Это понятие энтропии из физики, когда различают состояния спокойные и изменяющиеся, давление стабильно или изменяется имеют разное количество состояний молекул внутри в другую область науки, информатику, где ее начали считать уже конкретно. Но по сути энтропия в информатике и в физике это немного разные вещи. В физике это оценочная расчетная величина, энтропию не меряют, ее считают из классических мер свойств веществ. Температура, давление, масса. Силу нажатия можно измерить, а напряжение внутри металла только рассчитать, как и изменение энтропии в газе при расширении.
наоборот, чем больше информации на носителе, тем больше энтропия.
Диск, который был записан, имеет большую энтропию, чем чистый диск, потому что запись информации на диск вносит некоторую степень беспорядка в данные, а следовательно увеличивает энтропию системы. При записи данных на диск изменяется магнитное поле на его поверхности, создавая группы упорядоченных и неупорядоченных зон данных, которые будут считываться и интерпретироваться позже. Кроме того, при записи данных на диск возникают ошибки, которые могут быть исправлены путем добавления дополнительных битов информации, что также увеличивает энтропию.
Гугл зло))) Это разные информации тогда уж, звучат одинаково, но там энтропия и мера упорядоченности, какой то чел почему то назвал это не удачно инфой. При чем тут инфа, о которой говорит Петр. С мерой упорядоченности это вообще не коррелирует. К тому же, счас с сыном обсудил, он тоже не в курсе, хотя закончил лет 5 назад и знаком с темой, что термин информация применяется в физических характеристиках газов или других веществ. С сопроматом он на ты))) Меня тоже не учили, хотя энтропию в мозг вдалбливали нормально так)))
К тому же , чем больше энтропия, что значит больше разных состояний (На этом наше обучение заканчивалось) тем больше инфы, как понимаю Вас, А в инфе Петра, гиг единичек и гиг единичек и нулей весит одинаково, а вот энтропия будет разной)))
Капец вы неучи. Чем больше энтропия, тем больше потеря информации. Все, я с вами не общаюсь :)
Не, тогда уже не доучи))) В 8 классе на информатике энтропию не нашел))) Лан, в физике тогда наоборот получается. Мера неупорядоченности - количество разных состояний - энтропия. 0 спокойное состояние, элементы системы одинаковы. 1 неспокойное состояние. Вариантов состояний слишком много, что бы их можно оценить. И это не бесконечно много. Просто состояния элементов изменяются хаотично относительно друг друга.
И таки да, информации о состоянии вещества и его элементах точной при энтропии 1 у нас 0. Посчитать или оценить состояния элементов внутри у нас нет возможности.
Любой инструмент добро, если уметь, и зло, если не уметь)))
Ну мера упорядоченности, возможности посчитать эти состояния, энтропия как мера количества состояний и мера потери информации о состоянии объекта это все верные понятия, только из разных наук. В общении лучше не надеяться, что все учились в одной школе)))
Вроде мнения сошлись, при энтропии 1 у нас потери инфы об объекте 100%))))