Энтропия и сложность для чайников
Добавлено: 22 сен 2019, 11:47
Форум Российского научного сообщества сторонников теории Разумного замысла
http://idcommunity.ru/forum/
Закон не может работать выборочно. Если закон запрещает самоусложнение, то и любой другой способ усложнения под запретом. Айдестенд? Невозможно обойти закон всего лишь сменив конструктора
Первый член формулы Пригожина- повышение энтропии в системе, второй-сброс энтропии, третий-энтропия не меняется.
Сергей писал(а): ↑23 сен 2019, 11:53Первый член формулы Пригожина- повышение энтропии в системе, второй-сброс энтропии, третий-энтропия не меняется.
Второй член- сброс энтропии и все виды усложнения, в том числе и самоусложнение.
Ты умудрился сам себя опровергнуть . Правда здорово?
Так вот, Паф, если у тебя система замкнутая, что ты не делай, она всегда будет возвращаться в точку термодинамического равновесия.
Если у тебя система открытая, то можешь вмешиваться в ее состояние и система может сама создавать связи с внешней средой и своими подсистемами.
Видишь, как ты начудил со своим утверждением?
Это плохо. -->
Пафнутий писал(а): ↑22 сен 2019, 10:39А при чем здесь я? В том, что белок сложнее аминокислот по-моему ни у кого сомнений нет, и никогда не было (ну, кроме Вас ).
Если Вам хочется спорить с очевидным, ну пожалуйста, посчитайте количество атомов в белке и в аминокислоте. Почувствуйте разницу.
Или сравните белок с входящими в него аминокислотами по отдельности. Описание белка всегда будет больше за счет дополнительных связей между аминокислотами.
Википедия - Энтропия в классической термодинамике. Границы применимости понимания энтропии как меры беспорядка
...В этом случае наиболее вероятным состоянием, соответствующим минимуму свободной энергии, будет упорядоченное кристаллическое состояние, а совсем не «хаос», хотя в состоянии «хаоса» значение конфигурационной энтропии системы и ниже. (Термин «хаос» здесь понимается в смысле беспорядка — в наивном смысле. К хаосу в математическом смысле как сильно неустойчивой нелинейной системе это не имеет отношения, конечно.)
...Данный «беспорядок» вовсе не соответствует «беспорядку» в каком-либо другом понимании, например, информационному. Такая же ситуация возникает и в примере с кристаллизацией переохлаждённой жидкости, в которой образование структур из «хаотичной» жидкости идёт параллельно с увеличением энтропии.
То есть при образовании кристалла из переохлаждённой жидкости энтропия увеличивается с одновременным ростом температуры.
...Это неверное понимание энтропии появилось во время развития теории информации, в связи с парадоксом термодинамики, связанным с мысленным экспериментом так называемый «демона Максвелла».
Парадокс может быть разрешён при помощи теории информации. Для измерения скорости молекулы «демон» должен был бы получить информацию о её скорости. Но всякое получение информации — материальный процесс, сопровождающийся возрастанием энтропии. Количественный анализ показал, что приращение энтропии при измерении превосходит по абсолютной величине уменьшение энтропии, вызванное перераспределением молекул «демоном».
Пафнутий писал(а): ↑24 сен 2019, 14:12Вот смотрите, Виктор.
Прежде чем Вы сядете за написание очередных трактатов по сепульковедению, подумайте над такой вещью - каково определение сепулек, и в чем они хотя бы измеряются? И тогда у Вас сразу все прояснится в Вашей картине мира, уверяю Вас.
Есть понятие сложности, оно всем известно. В чем оно измеряется тоже всем известно. А вот сепульки - неизвестно что такое, и в чем измеряются.
Если Вы определите сепульки как количество связей в системе, то во-первых, непонятно, какое это имеет отношение к порядку, а во-вторых, с ростом сложности, - допустим, увеличением размера системы, - возрастет и количество Ваших сепулек... Ну и так далее.
Основы биохимии. Физическая химияМерой изменения упорядоченности системы служит изменение энтропии ΔS.
Энтропия системы тем выше, чем больше степень неупорядоченности (беспорядка) системы. Таким образом, если процесс идет в направлении увеличения неупорядоченности системы (а повседневный опыт показывает, что это наиболее вероятный процесс), ΔS — величина положительная. Для увеличения степени порядка в системе (ΔS > 0) необходимо затратить энергию. Оба этих положения вытекают из фундаментального закона природы — второго закона термодинамики.
Кафедра биологической и медицинской физики. ЛЕКЦИЯ № 11 на тему: «Основы термодинамики живых организмов»Упорядоченность структуры в свете второго начала термодинамики
В общем случае можно показать, что всегда при повышении упорядоченности в каком-то объекте его энтропия понижается, а при уменьшении упорядоченности энтропия объекта возрастает. При этом общая энтропия системы „объект + среда“ всегда увеличивается.
Справочник химика. Функция термодинамическая упорядочение Больцман установил важнейшую связь между термодинамической функцией-энтропией-и микроскопической неупорядоченностью физической системы.
Мы рассматриваем любую ситуацию, настолько определенную, что она может быть реализована только одним способом или небольшим числом способов, как упорядоченную.
А всякую ситуацию, которую можно воспроизвести тысячами или миллионами различных, но совершенно эквивалентных способов, принято рассматривать как неупорядоченную. Закон Больцмана, выражаемый уравнением (16-5), указывает, что наиболее совершенной, упорядоченной системой, которую можно себе представить во Вселенной, является идеальный кристалл при абсолютном нуле температур. Всякая иная система - кристалл при произвольной температуре выше О К, жидкость, газ или какая-либо смесь веществ - характеризуется большей неупорядоченностью и поэтому обладает положительной энтропией. Чем больше энтропия системы, тем больше ее неупорядоченность.
Связь с энтропиейМожно показать[12], что колмогоровская сложность результата работы марковского источника информации связана с его энтропией. Более точно, колмогоровская сложность результата работы марковского источника информации, нормализованная на длины результата, сходится почти всегда к энтропии источника.
Цепь МарковаЦе́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, характеризующаяся тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого.
Пафнутий писал(а): ↑24 сен 2019, 13:54Если Вам хочется спорить с очевидным, ну пожалуйста, посчитайте количество атомов в белке и в аминокислоте. Почувствуйте разницу.
Или сравните белок с входящими в него аминокислотами по отдельности. Описание белка всегда будет больше за счет дополнительных связей между аминокислотами.
Молекула распалась, сложность уменьшилась. Это имеет для нас значение. А стала ли она беспорядочной или порядочной при этом - пусть супульковеды подсчитывают, если хотят. Это все равно никому не интересно.
Пафнутий писал(а): ↑24 сен 2019, 13:54Вот методика -->
Как это молекула воды проще, чем атомы? Scratch One-s Head Вы либо заработались, либо у Вас какая-то извращенная фантазия.
В молекуле воды три атома и как минимум две связи. Сложность равна пяти. А в трех атомах только три атома. Сложность равна трем.
Пафнутий писал(а): ↑24 сен 2019, 13:54Википедия - Энтропия в классической термодинамике. Границы применимости понимания энтропии как меры беспорядка
...В этом случае наиболее вероятным состоянием, соответствующим минимуму свободной энергии, будет упорядоченное кристаллическое состояние, а совсем не «хаос», хотя в состоянии «хаоса» значение конфигурационной энтропии системы и ниже. (Термин «хаос» здесь понимается в смысле беспорядка — в наивном смысле. К хаосу в математическом смысле как сильно неустойчивой нелинейной системе это не имеет отношения, конечно.)
...Данный «беспорядок» вовсе не соответствует «беспорядку» в каком-либо другом понимании, например, информационному. Такая же ситуация возникает и в примере с кристаллизацией переохлаждённой жидкости, в которой образование структур из «хаотичной» жидкости идёт параллельно с увеличением энтропии.
То есть при образовании кристалла из переохлаждённой жидкости энтропия увеличивается с одновременным ростом температуры.
...Это неверное понимание энтропии появилось во время развития теории информации, в связи с парадоксом термодинамики, связанным с мысленным экспериментом так называемый «демона Максвелла».
Парадокс может быть разрешён при помощи теории информации. Для измерения скорости молекулы «демон» должен был бы получить информацию о её скорости. Но всякое получение информации — материальный процесс, сопровождающийся возрастанием энтропии. Количественный анализ показал, что приращение энтропии при измерении превосходит по абсолютной величине уменьшение энтропии, вызванное перераспределением молекул «демоном».
Энтропия в классической термодинамикеПроблемы начинаются в двух случаях:
когда начинают смешивать различные понимания беспорядка, и энтропия становится мерой беспорядка вообще;
когда понятие энтропии применяется для систем, не являющихся термодинамическими.
Victor N писал(а): ↑24 сен 2019, 17:13Пафнутий писал(а): ↑24 сен 2019, 13:54Если Вам хочется спорить с очевидным, ну пожалуйста, посчитайте количество атомов в белке и в аминокислоте. Почувствуйте разницу.
Или сравните белок с входящими в него аминокислотами по отдельности. Описание белка всегда будет больше за счет дополнительных связей между аминокислотами.
Молекула распалась, сложность уменьшилась. Это имеет для нас значение. А стала ли она беспорядочной или порядочной при этом - пусть супульковеды подсчитывают, если хотят. Это все равно никому не интересно.
Сложность уменьшилась… чего сложность? Молекулы? Так она распалась. Её нет
А вот сложность термодинамической системы из двух атомов водорода и одного атома кислорода – выше чем из одной молекулы воды.
Это я вам уже в цифрах показал.
Внимательно прочитайте мой пост еще раз.
Таким образом при расщеплении сложных молекул на простые термодинамическая система по Колмогорову усложняется.
Еще что-то непонятно?
Victor N писал(а): ↑24 сен 2019, 17:13Пафнутий писал(а): ↑24 сен 2019, 13:54Вот методика -->
Как это молекула воды проще, чем атомы? Scratch One-s Head Вы либо заработались, либо у Вас какая-то извращенная фантазия.
В молекуле воды три атома и как минимум две связи. Сложность равна пяти. А в трех атомах только три атома. Сложность равна трем.
Здесь две ошибки:
1) Описание белка не обязательно будет больше!
Вы забыли, что по Колмогорову надо брать наиболее компактное описание.
Еще раз пример с молекулой воды рассмотрите.
Её описание: «H2O» – 3 байта. В нем зашифрованы ее связи.
А описание ее составных частей: H,H,O – тоже 3 байта.
Victor N писал(а): ↑24 сен 2019, 17:132) Вы забыли указать координаты и скорости молекул!
Для описания термодинамической системы мало указать какие молекулы в нее входят.
Надо еще указать где они находятся и как движутся.
Совершенно очевидно, что Колмогоровская сложность термодинамической системы резко повышается, когда молекулы расщепляются на составные части.
Пафнутий писал(а): ↑21 сен 2019, 16:01Дарвинистов обычно повергает в недоумение тот факт, что энтропия растет с увеличением хаотичности системы, и противоположная величина - негэнтропия (свободная энергия, сложность) тоже растет по мере возрастания хаотичности. Но ничего странного в этом на самом деле нет, наоборот, всё ясно и логично. Энтропия связана с описанием тех структур и взаимосвязей системы, которые отвечают за тепловую энергию. Соответственно, негэнтропия - это описание тех структур и взаимосвязей, которые отвечают за свободную энергию системы. Ясно, что с ростом хаотичности системы оба описания - и энтропийное, и негэнтропийное растут. А длина описаний - это и есть сложность. Можно сказать, что есть две сложности - тепловая энтропийная сложность, и негэнтропийная сложность. Но тепловая сложность нас не интересует, поэтому этот термин на практике не используется. А негэнтропийная сложность имеет прямое отношение к живым организмам, она нас интересует. Её мы и используем на практике, когда говорим об усложнении или упрощении термодинамической (живой) системы. Усложнение означает, что живая система содержит большее количество свободной энергии, живые структуры и взаимосвязи содержат большее количество информации, их описание более длинное.
Victor N писал(а): ↑24 сен 2019, 17:13Теперь внимательно прочитайте статью, которую цитируете
Пафнутий писал(а): ↑24 сен 2019, 13:54Википедия - Энтропия в классической термодинамике. Границы применимости понимания энтропии как меры беспорядка
...В этом случае наиболее вероятным состоянием, соответствующим минимуму свободной энергии, будет упорядоченное кристаллическое состояние, а совсем не «хаос», хотя в состоянии «хаоса» значение конфигурационной энтропии системы и ниже. (Термин «хаос» здесь понимается в смысле беспорядка — в наивном смысле. К хаосу в математическом смысле как сильно неустойчивой нелинейной системе это не имеет отношения, конечно.)
...Данный «беспорядок» вовсе не соответствует «беспорядку» в каком-либо другом понимании, например, информационному. Такая же ситуация возникает и в примере с кристаллизацией переохлаждённой жидкости, в которой образование структур из «хаотичной» жидкости идёт параллельно с увеличением энтропии.
То есть при образовании кристалла из переохлаждённой жидкости энтропия увеличивается с одновременным ростом температуры.
...Это неверное понимание энтропии появилось во время развития теории информации, в связи с парадоксом термодинамики, связанным с мысленным экспериментом так называемый «демона Максвелла».
Парадокс может быть разрешён при помощи теории информации. Для измерения скорости молекулы «демон» должен был бы получить информацию о её скорости. Но всякое получение информации — материальный процесс, сопровождающийся возрастанием энтропии. Количественный анализ показал, что приращение энтропии при измерении превосходит по абсолютной величине уменьшение энтропии, вызванное перераспределением молекул «демоном».
Обратите внимание, что Колмогоровская сложность в ней вообще не упоминается.
Речь идет о порядке и разупорядочивание.
Что вам здесь непонятно или на что вы хотели обратить мое внимание?
Victor N писал(а): ↑24 сен 2019, 17:13
А на самом деле специально для вас из той же статьи:
Энтропия в классической термодинамикеПроблемы начинаются в двух случаях:
когда начинают смешивать различные понимания беспорядка, и энтропия становится мерой беспорядка вообще;
когда понятие энтропии применяется для систем, не являющихся термодинамическими.
Эрвин Шрёдингер. Что такое жизнь с точки зрения физики?56. Что такое энтропия
Разрешите сначала подчеркнуть, что это не туманное представление или идея, а измеримая физическая величина, совершенно такая же, как длина стержня, температура любой точки тела, скрытая теплота плавления данного кристалла или удельная теплоемкость любого вещества. При температуре абсолютного нуля (грубо — 273° С) энтропия любого вещества равна нулю. Если вы будете медленно переводить вещество в любое другое состояние обратимыми небольшими этапами (даже если при этом вещество изменит свою физическую или химическую природу, распадется на две или большее число частей с различными физическими или химическими характеристиками), то энтропия возрастет на величину, которая определяется делением каждой малой порции тепла, затрачиваемой во время этой операции, на абсолютную температуру, при которой это тепло затрачено, а затем суммированием всех полученных величин. Например, когда вы расплавляете твердое тело, энтропия возрастает на величину теплоты плавления, деленной на температуру при точке плавления. Таким образом, вы видите, что единица измерения энтропии есть калория на градус (совершенно так же, как калория есть единица измерения тепла или сантиметр есть единица измерения длины).
57. Статистическое значение энтропии
Я привел это специальное определение для того, чтобы освободить энтропию от той атмосферы туманной загадочности, которой ее часто окружают. Гораздо более важна для нас связь энтропии со статистической концепцией упорядоченности и неупорядоченности — связь, открытая Больцманом и Гиббсом на основе данных статистической физики. Она также является точной количественной связью и ее можно выразить так:
Энтропия = k lg D,
где k — так называемая постоянная Больцмана, равная 3,2983•10-24 калорий на градус Цельсия;
D — количественная мера неупорядоченности атомов в рассматриваемом теле.
Дать точное объяснение величины D в кратких и неспециальных терминах почти невозможно…