Энтропия и сложность для чайников

Обсуждение научных вопросов всеми зарегистрированными пользователями
Аватара пользователя
Victor N
Участник
Сообщения: 509
Зарегистрирован: 12 мар 2019, 18:01
Поблагодарили: 8 раз

Энтропия и сложность для чайников

Сообщение Victor N » 28 сен 2019, 22:33

Пафнутий писал(а):
28 сен 2019, 00:08
Вы невнимательно прочитали первое сообщение этой темы, и Википедию. И я Вам в каждом сообщении это пишу. Вы от фонаря рассчитываете сложность термодинамической системы. А так делать нельзя. В науке это недопустимо.

Сначала Вы какие-то микрофоны рассчитывали, потом, видимо, когда поняли что это не термодинамическая система, перешли на подсчет сепулек. Завтра еще что-нибудь выдумаете. А всего-то надо внимательно прочитать, что Вам пишут, и не пороть отсебятины.

Дорогой друг! Колмогоровская сложность (КС) не связана именно с термодинамическими системами.

Мой пример с микрофоном (а еще лучше с микросхемой – источником энтропии) – это хороший пример самовозрастания Колмогоровской сложности вычислительной системы.

Как уже говорил, вычислить КС в общем случае невозможно.
Но можно определить, что с ней происходит в некоторых частных случаях, – становится ли она больше, или меньше.

Так вот КС вычислительной системы это КС аппаратуры + КС программного обеспечения.
КС же программного обеспечения легко и бесконечно самовозрастает (пока диск не заполнится) – за счет случайных процессов, которых навалом в микромире.

Пафнутий писал(а):
28 сен 2019, 00:08
Victor N писал(а):
24 сен 2019, 17:13
Еще раз пример с молекулой воды рассмотрите.
Её описание: «H2O» – 3 байта. В нем зашифрованы ее связи.
А описание ее составных частей: H,H,O – тоже 3 байта.

Это неверно. В первом описании указаны только атомы. А где связи? Их нет. Значит Ваши выводы некорректны.

Cвязи четко и конкретно указаны в формуле H2O. Она описывает их совершенно недвусмысленно. Что вам еще надо?

Почему вы решили, что их надо описывать как-то иначе?

Пафнутий писал(а):
28 сен 2019, 00:08
2. Порядок-беспорядок - это вообще бессмысленные понятия, поскольку кристаллы могут образовываться хоть при уменьшении энтропии, хоть при увеличении. И вообще это понятие ничего не означает, поскольку не имеет определения и ни в каких единицах не выражается.

А разве я говорил, что образование кристаллов это всегда есть рост упорядоченности системы?
Нет! Важно еще как при этом изменяется её температура.

Как уже говорилось, упорядоченность, о которой идет речь в термодинамике – это понятие, которое просто и кратко, и при этом правильно определить невозможно.

Пафнутий писал(а):
28 сен 2019, 00:08
Молекула не может быть абстрактной. Молекула - она и в Африке молекула, физическая система. И она имеет прямое отношение к свободной энергии системы. Чем длиннее молекула, тем более неустойчива система, тем невероятнее ее состояние, тем больше в системе свободной энергии, тем меньше энтропия.

Система, в отношении которой имеет смысл энтропия, должна обладать энергией и взаимодействовать с другими системами.

Формула молекулы, для которой вы предлагаете оценивать энтропию, ничего не сообщает о энергии этой молекулы, и может ли энергия изменяться – тоже неизвестно.

Поэтому я вам предложил в описание системы добавить скорость движения молекулы и ёё координаты.

И тогда совершенно очевидно, что при распаде молекулы сложность (KC) системы из ее составных частей возрастает.

Это как раз тот случай, когда мы можем оценить как изменяется Колмогоровская сложность. Не вычислить ее! Только заметить, что она возрастает.

А вы напрасно ожидали, что она будет убывать. Кент Ховинд вас подвел :smile:

Как уже говорилось,
Колмогоровская сложность не имеет в общем случае связи с энтропией. Ибо энтропия вычислима. А КС - нет.

Аватара пользователя
Victor N
Участник
Сообщения: 509
Зарегистрирован: 12 мар 2019, 18:01
Поблагодарили: 8 раз

Энтропия и сложность для чайников

Сообщение Victor N » 29 сен 2019, 12:07

Пафнутий писал(а):
21 сен 2019, 16:01

Энергия способна лишь разрушать. Кент Ховинд ярко и образно доносит эту мысль до публики (смотрим с 1:28:05):



Посмотрел таки чего там говорит Кент Ховинд начиная с 1:28:05.

Энергия у него только разрушает. Дескать, она не может созидать.
Но сам же вспоминает о хлорофиле. Это у него исключение из правила что-ли? :scratch_one-s_head:
Всё как обычно…

Но вот что резануло по слуху.

«Сперва японцы добавили энергии к Перл-Харбору, а затем мы добавили энергии к их городам»
Он себя ассоциирует с теми американскими фашистами, которые сожгли Хиросиму и Нагасаки!

Вот за что я не люблю американских сектантов.
Никто из них ни разу не осудил это преступление.

Велели им считать Хиросиму американским подвигом, – они так и поступают. Противны шуточки на эту тему.

МистерБублик
Пользователь
Сообщения: 954
Зарегистрирован: 24 мар 2019, 20:58
Поблагодарили: 5 раз

Энтропия и сложность для чайников

Сообщение МистерБублик » 29 сен 2019, 13:18

Victor N писал(а):
29 сен 2019, 12:07

 Это у него исключение из правила что-ли? :scratch_one-s_head:


Вы, креационисты, вообще веселый народ. Я вот смотрю уже месяц за вашими спорами и пришел к выводу, что вы в целом не против науки. 
Вы против только в той части, которая противоречит вашим убеждениям.  :laugh2: :laugh2: :laugh3: :laugh3: :rofl2: :rofl2:
Материализм это единственная философия у которой есть ответ на вопрос что же случилось с сознанием в так называемом "парадоксе клонов". Поэтому это единственная научная философия.
 

Аватара пользователя
Пафнутий
Участник
Сообщения: 1606
Зарегистрирован: 31 янв 2019, 00:07
Поблагодарили: 78 раз

Энтропия и сложность для чайников

Сообщение Пафнутий » 29 сен 2019, 13:28

Victor N писал(а):
29 сен 2019, 12:07
Пафнутий писал(а):
21 сен 2019, 16:01

Энергия способна лишь разрушать. Кент Ховинд ярко и образно доносит эту мысль до публики (смотрим с 1:28:05):



Посмотрел таки чего там говорит Кент Ховинд начиная с 1:28:05.

Энергия у него только разрушает. Дескать, она не может созидать.
Но сам же вспоминает о хлорофиле. Это у него исключение из правила что-ли? :scratch_one-s_head:
Всё как обычно…

Он это к тому, что для утилизации энергии нужна сложная система, а откуда она возьмется?

Я могу добавить, что и сложная система не решает вопрос роста энтропии. Заряжая батарейку, вы только нагреете комнату, но не остудите. Общая энтропия в комнате увеличится, но не снизится.


Victor N писал(а):
29 сен 2019, 12:07
Но вот что резануло по слуху.

«Сперва японцы добавили энергии к Перл-Харбору, а затем мы добавили энергии к их городам»
Он себя ассоциирует с теми американскими фашистами, которые сожгли Хиросиму и Нагасаки!

Вот за что я не люблю американских сектантов.
Никто из них ни разу не осудил это преступление.

Велели им считать Хиросиму американским подвигом, – они так и поступают. Противны шуточки на эту тему.

Да, они все фашистские подонки. Гейзенберг - еще та нацистская проститутка. Но тем не менее, квантовая механика работает.

Изображение

Аватара пользователя
Пафнутий
Участник
Сообщения: 1606
Зарегистрирован: 31 янв 2019, 00:07
Поблагодарили: 78 раз

Энтропия и сложность для чайников

Сообщение Пафнутий » 29 сен 2019, 13:44

МистерБублик писал(а):
29 сен 2019, 13:18
Вы, креационисты, вообще веселый народ. Я вот смотрю уже месяц за вашими спорами и пришел к выводу, что вы в целом не против науки. 
Присоединяйтесь к нам, барон, присоединяйтесь  :girl_yes:
 

Аватара пользователя
Пафнутий
Участник
Сообщения: 1606
Зарегистрирован: 31 янв 2019, 00:07
Поблагодарили: 78 раз

Энтропия и сложность для чайников

Сообщение Пафнутий » 29 сен 2019, 14:29

Victor N писал(а):
28 сен 2019, 20:13
Пафнутий писал(а):
27 сен 2019, 23:20


Это всё сепульки, а я просил определение привести и единицы измерения.

Видите как получается! Вы вместе с другом Ховиндом подвергли сомнению биологию, геологию, палеонтологию и смежные науки.

Как я и говорил, этим дело не ограничится.
Теперь вы взялись за физику… :smile:

Так весь мир физики занимается сепульками?
Во всех статьях, где говорится об энтропии, упоминается об упорядоченности.

Единицы измерения вам нужны? Их есть у нас! :smile: 

Вижу, аргументы у Вас закончились, перешли к лирике. Я Вас понимаю.

В физике нет сепулек. Сепульками занимаются фантасты, например те, кто верует в плавное превращение лягушек в царевен, а грязи в князи.

Victor N писал(а):
28 сен 2019, 20:13
Эрвин Шрёдингер. Что такое жизнь с точки зрения физики?56. Что такое энтропия

Разрешите сначала подчеркнуть, что это не туманное представление или идея, а измеримая физическая величина, совершенно такая же, как длина стержня, температура любой точки тела, скрытая теплота плавления данного кристалла или удельная теплоемкость любого вещества. При температуре абсолютного нуля (грубо — 273° С) энтропия любого вещества равна нулю. Если вы будете медленно переводить вещество в любое другое состояние обратимыми небольшими этапами (даже если при этом вещество изменит свою физическую или химическую природу, распадется на две или большее число частей с различными физическими или химическими характеристиками), то энтропия возрастет на величину, которая определяется делением каждой малой порции тепла, затрачиваемой во время этой операции, на абсолютную температуру, при которой это тепло затрачено, а затем суммированием всех полученных величин. Например, когда вы расплавляете твердое тело, энтропия возрастает на величину теплоты плавления, деленной на температуру при точке плавления. Таким образом, вы видите, что единица измерения энтропии есть калория на градус (совершенно так же, как калория есть единица измерения тепла или сантиметр есть единица измерения длины).

57. Статистическое значение энтропии

Я привел это специальное определение для того, чтобы освободить энтропию от той атмосферы туманной загадочности, которой ее часто окружают. Гораздо более важна для нас связь энтропии со статистической концепцией упорядоченности и неупорядоченности — связь, открытая Больцманом и Гиббсом на основе данных статистической физики. Она также является точной количественной связью и ее можно выразить так:

Энтропия = k lg D,

где k — так называемая постоянная Больцмана, равная 3,2983•10-24 калорий на градус Цельсия;
D — количественная мера неупорядоченности атомов в рассматриваемом теле.
Дать точное объяснение величины D в кратких и неспециальных терминах почти невозможно…

Отсюда видим, что упорядоченность – есть безразмерная величина, просто число.

А насчет определения упорядоченности Шредингер говорит, по сути, следующее:

Этой сущности можно дать определение:
a) понятное
b) краткое
c) правильное
Но вы можете выбрать лишь два пункта из трех!
:smile: 

D - это всего лишь "статистический вес состояния, [который] является числом возможных микросостояний (способов), с помощью которых можно составить данное макроскопическое состояние", а никакая не упорядоченность. Википедия - Статистическое определение энтропии 

"Число возможных микросостояний (способов)" - это и есть сложность, длина описания системы.


Victor N писал(а):
28 сен 2019, 20:13
Пафнутий писал(а):
27 сен 2019, 23:20
Вот сложность измеряется в байтах, как размер файла описания системы. А сепульки - это фантазии.

Почему именно с Колмогоровской сложностью у Кента Ховинда связаны все надежды? :smile:

Чем его не устраивает сложность по Шеннону?

Почему не устраивает? И при чем здесь Ховинд?

Приводите определение, рассмотрим. Думаю, сильно от колмогоровской сложности не отличается. Сложность - вещь простая (С), ее невозможно определить как-то радикально по-другому. 


Victor N писал(а):
28 сен 2019, 20:13
Пафнутий писал(а):
27 сен 2019, 23:20
В данном случае у Вас не определения, а бесполезный и бессмысленный набор слов, который никому не нужен в силу бессмысленности.

А вот сложность термодинамической системы и ее связь с энтропией определяется запросто. Я уже приводил, см. первую страницу.

Здесь тоже вас обманули:

Невычислимость колмогоровской сложности

Таким образом, нет универсального метода вычисления Колмогоровской сложности.
И на практике ее можно определить лишь в отдельных тривиальных задачах.

Однако вся наука ей пользуется, и никто не жалуется :smile:


Victor N писал(а):
28 сен 2019, 20:13
В общем случае вы не можете определить что чего сложнее по Колмогорову.

В общем случае и не надо. В большинстве конкретных случаев достаточно простых схем.
 

Аватара пользователя
Пафнутий
Участник
Сообщения: 1606
Зарегистрирован: 31 янв 2019, 00:07
Поблагодарили: 78 раз

Энтропия и сложность для чайников

Сообщение Пафнутий » 29 сен 2019, 16:20

Victor N писал(а):
28 сен 2019, 22:33
Пафнутий писал(а):
28 сен 2019, 00:08
Вы невнимательно прочитали первое сообщение этой темы, и Википедию. И я Вам в каждом сообщении это пишу. Вы от фонаря рассчитываете сложность термодинамической системы. А так делать нельзя. В науке это недопустимо.

Сначала Вы какие-то микрофоны рассчитывали, потом, видимо, когда поняли что это не термодинамическая система, перешли на подсчет сепулек. Завтра еще что-нибудь выдумаете. А всего-то надо внимательно прочитать, что Вам пишут, и не пороть отсебятины.

Дорогой друг! Колмогоровская сложность (КС) не связана именно с термодинамическими системами.

Тогда к чему все эти Ваши микрофоны?

Victor N писал(а):
28 сен 2019, 22:33
Мой пример с микрофоном (а еще лучше с микросхемой – источником энтропии) – это хороший пример самовозрастания Колмогоровской сложности вычислительной системы.

Как уже говорил, вычислить КС в общем случае невозможно.
Но можно определить, что с ней происходит в некоторых частных случаях, – становится ли она больше, или меньше.

Отож! Нам этого достаточно.

Victor N писал(а):
28 сен 2019, 22:33
Так вот КС вычислительной системы это КС аппаратуры + КС программного обеспечения.

Почему только программного обеспечения? А сложность технической документации, учебников по электронике, китайской фабрики, которая эту аппаратуру собрала?.. А сложность программиста?

Victor N писал(а):
28 сен 2019, 22:33
КС же программного обеспечения легко и бесконечно самовозрастает (пока диск не заполнится) – за счет случайных процессов, которых навалом в микромире.

А урожайность риса в долине реки Ганг тоже возрастает в связи с поставками семян компании Монсанто, и что?

И к тому же сложность записи на диске никак не может возрастать, поскольку изначально там записаны случайные биты, а случайная последовательность всегда сложнее любой иной. Своей записью Вы стираете случайную последовательность, а значит уменьшаете сложность.

Victor N писал(а):
28 сен 2019, 22:33


Cвязи четко и конкретно указаны в формуле H2O. Она описывает их совершенно недвусмысленно. Что вам еще надо?

Почему вы решили, что их надо описывать как-то иначе?

Да потому что это неполное описание. К этому описанию прилагается инструкция, в которой говорится, что данную формулу следует понимать, что все элементы связаны. Эта инструкция тоже входит в описание. В общем, я вижу, Вы уже с очевидным начали спорить. Это плохой признак.


Victor N писал(а):
28 сен 2019, 22:33
Пафнутий писал(а):
28 сен 2019, 00:08
2. Порядок-беспорядок - это вообще бессмысленные понятия, поскольку кристаллы могут образовываться хоть при уменьшении энтропии, хоть при увеличении. И вообще это понятие ничего не означает, поскольку не имеет определения и ни в каких единицах не выражается.

А разве я говорил, что образование кристаллов это всегда есть рост упорядоченности системы?

Образование кристаллов - это не рост упорядоченности? :wacko2: Тут я вынужден добавить любимый смайлик Инопланетянки, потому как лучшего повода придумать сложно  :hang3:  

Воистину упорядоченность бессмысленный и беспощадный термин.


Victor N писал(а):
28 сен 2019, 22:33
Нет! Важно еще как при этом изменяется её температура.

Как уже говорилось, упорядоченность, о которой идет речь в термодинамике – это понятие, которое просто и кратко, и при этом правильно определить невозможно.

Отож! Классические сепульки. :laugh3:

Заметьте, я Вас за язык не тянул!


Victor N писал(а):
28 сен 2019, 22:33
Пафнутий писал(а):
28 сен 2019, 00:08
Молекула не может быть абстрактной. Молекула - она и в Африке молекула, физическая система. И она имеет прямое отношение к свободной энергии системы. Чем длиннее молекула, тем более неустойчива система, тем невероятнее ее состояние, тем больше в системе свободной энергии, тем меньше энтропия.

Система, в отношении которой имеет смысл энтропия, должна обладать энергией и взаимодействовать с другими системами.

Формула молекулы, для которой вы предлагаете оценивать энтропию, ничего не сообщает о энергии этой молекулы, и может ли энергия изменяться – тоже неизвестно.

Поэтому я вам предложил в описание системы добавить скорость движения молекулы и ёё координаты.

И тогда совершенно очевидно, что при распаде молекулы сложность (KC) системы из ее составных частей возрастает.

Это как раз тот случай, когда мы можем оценить как изменяется Колмогоровская сложность. Не вычислить ее! Только заметить, что она возрастает.

Абсолютно верно. Тепловая сложность возрастает, негэнтропийная сложность убывает, сложность молекул уменьшается, свободная энергия уменьшается, энтропия растет. Всё в точности, как я и говорил.


Victor N писал(а):
28 сен 2019, 22:33
А вы напрасно ожидали, что она будет убывать. Кент Ховинд вас подвел :smile: 

Ну вот она убывает в Вашем случае. Возрастает только тепловая сложность или энтропийная, а негэнтропийная сложность падает. Но иногда, чисто гипотетически, негэнтропийная сложность может и возрастать в открытых системах.

Перечитайте первую страницу еще раз:

Пафнутий писал(а):
21 сен 2019, 16:01
Дарвинистов обычно повергает в недоумение тот факт, что энтропия растет с увеличением хаотичности системы, и противоположная величина - негэнтропия (свободная энергия, сложность) тоже растет по мере возрастания хаотичности. Но ничего странного в этом на самом деле нет, наоборот, всё ясно и логично. Энтропия связана с описанием тех структур и взаимосвязей системы, которые отвечают за тепловую энергию. Соответственно, негэнтропия - это описание тех структур и взаимосвязей, которые отвечают за свободную энергию системы. Ясно, что с ростом хаотичности системы оба описания - и энтропийное, и негэнтропийное растут. А длина описаний - это и есть сложность. Можно сказать, что есть две сложности - тепловая энтропийная сложность, и негэнтропийная сложность. Но тепловая сложность нас не интересует, поэтому этот термин на практике не используется. А негэнтропийная сложность имеет прямое отношение к живым организмам, она нас интересует. Её мы и используем на практике, когда говорим об усложнении или упрощении термодинамической (живой) системы. Усложнение означает, что живая система содержит большее количество свободной энергии, живые структуры и взаимосвязи содержат большее количество информации, их описание более длинное. 

Сложность - это абстракция. Можно подсчитывать сложность микрофонов, сепулек, как это Вы делаете обычно, в том числе и тепловую сложность. Ради бога, у нас свободная страна. Но вот только кроме Вас это никому не нужно и неинтересно.

А можно подсчитывать сложность, имеющую отношение к свободной энергии, негэнтропии, которая связана с длиной молекул. А дина молекул интересна всем. Почувствуйте разницу.

Victor N писал(а):
28 сен 2019, 22:33
Как уже говорилось,
Колмогоровская сложность не имеет в общем случае связи с энтропией. Ибо энтропия вычислима. А КС - нет.

Энтропию тоже нелегко вычислить, ничуть не проще, чем сложность. И в большинстве случаев тоже достаточно сравнения - убывает энтропия или возрастает, как и в случае со сложностью. Если где-то можно точно вычислить энтропию, то там и сложность вычисляется точно.


Victor N писал(а):
28 сен 2019, 22:33
Формула молекулы, для которой вы предлагаете оценивать энтропию, ничего не сообщает о энергии этой молекулы, и может ли энергия изменяться – тоже неизвестно.

--> Википедия - Энергия разрыва химической связи

Аватара пользователя
Пафнутий
Участник
Сообщения: 1606
Зарегистрирован: 31 янв 2019, 00:07
Поблагодарили: 78 раз

Энтропия и сложность для чайников

Сообщение Пафнутий » 29 сен 2019, 17:45

Victor N писал(а):
28 сен 2019, 22:33
Дорогой друг! Колмогоровская сложность (КС) не связана именно с термодинамическими системами.

Сложность есть у любого объекта. Если предметы можно сосчитать, то можно вычислить сложность. Можно сложность красных предметов подсчитать, можно синих, можно всех вместе. А можно относительную сложность рассчитать. Это обычная математика. А математика не может быть не связана с термодинамикой. Важно только понимать, как именно они связаны.

Вот негэнтропийная сложность, определяющая запас свободной энергии, это как раз относительная сложность и есть. Это разница между текущей сложностью системы и сложностью наиболее вероятного ее состояния.

K = |K2 - K1|
  • Свободная энергия заключена в возможности перехода макросистемы из менее вероятного состояния в более вероятное
  • Если текущее состояние макросистемы столь же вероятно, как и любые иные ее состояния, то свободная энергия равна нулю (такая система не может совершить работы)
  • Более вероятное макросостояние  - это макросостояние с большим фазовым пространством
  • Большее фазовое пространство - это то, которое имеет больше микросостояний, а соответственно и бо́льшую сложность
Изображение

Можно сложность рассчитывать для слабо связанных систем, наподобие газов - жидкостей, а можно для достаточно сильно связанных - химических соединений.
 

Аватара пользователя
Victor N
Участник
Сообщения: 509
Зарегистрирован: 12 мар 2019, 18:01
Поблагодарили: 8 раз

Энтропия и сложность для чайников

Сообщение Victor N » 29 сен 2019, 22:55

Пафнутий писал(а):
29 сен 2019, 13:28
Он это к тому, что для утилизации энергии нужна сложная система, а откуда она возьмется?

Ну например будет создана искусственно, в качестве начального условия для Эксперимента.

А если не получится, то можно создать еще более сложную систему ради следующего этапа Эксперимента…

Как-то так… :smile:

Пафнутий писал(а):
29 сен 2019, 13:28
Я могу добавить, что и сложная система не решает вопрос роста энтропии. Заряжая батарейку, вы только нагреете комнату, но не остудите. Общая энтропия в комнате увеличится, но не снизится.

Учитывая что батарейкой у нас является Солнце, а комнатой – Вселенная…
Пускай она там себе увеличивается.

Лишь бы под конкретным кустом появилось нечто более совершенное.

Это ведь не запрещено законами природы?
 

Аватара пользователя
Victor N
Участник
Сообщения: 509
Зарегистрирован: 12 мар 2019, 18:01
Поблагодарили: 8 раз

Энтропия и сложность для чайников

Сообщение Victor N » 29 сен 2019, 23:30

Пафнутий писал(а):
29 сен 2019, 14:29
Вижу, аргументы у Вас закончились, перешли к лирике. Я Вас понимаю.

Там строчкой ниже было… вы не дочитали.


Пафнутий писал(а):
29 сен 2019, 14:29
Victor N писал(а):
28 сен 2019, 20:13
Эрвин Шрёдингер. Что такое жизнь с точки зрения физики?56. Что такое энтропия

Энтропия = k lg D,

где k — так называемая постоянная Больцмана, равная 3,2983•10-24 калорий на градус Цельсия;
D — количественная мера неупорядоченности атомов в рассматриваемом теле.
Дать точное объяснение величины D в кратких и неспециальных терминах почти невозможно…

Отсюда видим, что упорядоченность – есть безразмерная величина, просто число.

D - это всего лишь "статистический вес состояния, [который] является числом возможных микросостояний (способов), с помощью которых можно составить данное макроскопическое состояние", а никакая не упорядоченность. Википедия - Статистическое определение энтропии

"Число возможных микросостояний (способов)" - это и есть сложность, длина описания системы.


Вижу, теперь вам захотелось поспорить со Шрёдингером :smile:
Дело завлекательное…
Только начни подвергать сомнению физику, и сразу у вас появится с кем спорить из великих :smile:



Но таки вы ошибаетесь.
Ваша последняя фраза (которой нет в Википедии) – неправильная.

Нет! Это не Колмогоровская сложность (КС)

Еще раз повторю.

Теорема Колмогорова утверждает, что принципиально нет никакой формулы для КС.
Не существует никакой возможности ее высчитать. Это абсолютное утверждение.

Энтропия вычисляется. Не важно какими усилиями. Пусть даже потребуется труд всех китайцев в течении 100500 лет.

Но тем не менее, алгоритм для вычисления энтропии есть. Вам Шрёдингер его изложил.

А КС принципиально не вычисляется. Нету никакой формулы для нее. Нет алгоритма для ее вычисления. Это доказанный факт.

Поэтому там в формуле не КС. Это именно упорядоченность, о которой вы не знали раньше.


Еще раз повторю. КС в общем случае не связана с энтропией.
В некоторых специальных случаях - да. А в общем - нет.


Пафнутий писал(а):
29 сен 2019, 14:29
Приводите определение, рассмотрим. Думаю, сильно от колмогоровской сложности не отличается. Сложность - вещь простая (С), ее невозможно определить как-то радикально по-другому.

Вам привели конкретную формулу для расчета. Считайте и получите.


А насчет определения Шрёдингер вам уже сказал. Вам которое?

Краткое или правильное или понятное? :smile:

Да, дорогой друг. Так часто бывает в физике. Не всё там можно объяснить дилетантам.
Для понимания некоторых сущностей нужен соответствующий уровень, которого у нас с вами может и не быть.

Вот например чем вас не устраивает пояснение Галимова?
Он попытался объяснить каков физический смысл этой самой упорядоченности.

Вам показалось это бессмысленным? Зря.
Попробуйте подумать над его фразами. Можно обсудить.

Аватара пользователя
Victor N
Участник
Сообщения: 509
Зарегистрирован: 12 мар 2019, 18:01
Поблагодарили: 8 раз

Энтропия и сложность для чайников

Сообщение Victor N » 30 сен 2019, 00:58

Пафнутий писал(а):
29 сен 2019, 16:20
Victor N писал(а):
28 сен 2019, 22:33
Так вот КС вычислительной системы это КС аппаратуры + КС программного обеспечения.

Почему только программного обеспечения? А сложность технической документации, учебников по электронике, китайской фабрики, которая эту аппаратуру собрала?.. А сложность программиста?

Все зависит от выбранной нами системы для изучения.
Если хотите, можете прибавить сложность китайской фабрики и чего-там-еще…
А результат не поменяется :smile:

Колмогоровская сложность (КС) у некоторых систем может самовозрастать, как видите.

Пафнутий писал(а):
29 сен 2019, 16:20
И к тому же сложность записи на диске никак не может возрастать, поскольку изначально там записаны случайные биты, а случайная последовательность всегда сложнее любой иной. Своей записью Вы стираете случайную последовательность, а значит уменьшаете сложность.

А зачем вы себе облегчаете ситуацию?

Я же сказал, что не во всех, а в некоторых случаях это работает.

Возьмите абсолютно чистый диск прописанный нулями. Подключите его к компьютеру (вторым диском). Включите программку, которую я вам дам, и процесс пойдет.
КС этой системы начнет самовозрастать. Без участия разумного дизайнера.

Вот такая она – Колмогоровская сложность.

Пафнутий писал(а):
29 сен 2019, 16:20
Да потому что это неполное описание. К этому описанию прилагается инструкция, в которой говорится, что данную формулу следует понимать, что все элементы связаны. Эта инструкция тоже входит в описание. В общем, я вижу, Вы уже с очевидным начали спорить. Это плохой признак.

Почему вы решили, что описание неполное?
Всему миру формулы H2O совершенно достаточно. Это описание на уровне учебника по химии.

Если вы желаете описать систему на более глубоком уровне, например на уровне квантовой физики, – пожалуйста!
Но тогда и описания каждого атома этой системы тоже должны быть на том же уровне.

Вы думаете, вам это поможет? :smile:

Пафнутий писал(а):
29 сен 2019, 16:20
Воистину упорядоченность бессмысленный и беспощадный термин.

Такова реальность… не все в ней просто и понятно нам с вами.


Пафнутий писал(а):
29 сен 2019, 16:20
Абсолютно верно. Тепловая сложность возрастает, негэнтропийная сложность убывает, сложность молекул уменьшается, свободная энергия уменьшается, энтропия растет. Всё в точности, как я и говорил.

Вот видите, у вас всё становится более запутанным. Давеча вы пытались обойтись одной КС.

Теперь получается сложностей стало две :smile:


Пафнутий писал(а):
29 сен 2019, 16:20
Дарвинистов обычно повергает в недоумение тот факт, что энтропия растет с увеличением хаотичности системы, и противоположная величина - негэнтропия (свободная энергия, сложность) тоже растет по мере возрастания хаотичности. Но ничего странного в этом на самом деле нет, наоборот, всё ясно и логично. Энтропия связана с описанием тех структур и взаимосвязей системы, которые отвечают за тепловую энергию. Соответственно, негэнтропия - это описание тех структур и взаимосвязей, которые отвечают за свободную энергию системы. Ясно, что с ростом хаотичности системы оба описания - и энтропийное, и негэнтропийное растут. А длина описаний - это и есть сложность. Можно сказать, что есть две сложности - тепловая энтропийная сложность, и негэнтропийная сложность. Но тепловая сложность нас не интересует, поэтому этот термин на практике не используется. А негэнтропийная сложность имеет прямое отношение к живым организмам, она нас интересует. Её мы и используем на практике, когда говорим об усложнении или упрощении термодинамической (живой) системы. Усложнение означает, что живая система содержит большее количество свободной энергии, живые структуры и взаимосвязи содержат большее количество информации, их описание более длинное.

Вам кажется всё просто и ясно. Но это может быть обманчивое впечатление.

Энтропия, как уже показано, связана с упорядоченностью. А это довольно сложное понятие.

Нэгэнтропия – это вовсе не другая физическая величина!.
Это та же самая энтропия, но со знаком минус. Удобное сокращение в некоторых расчетах.
Это вообще не энергия. У нее другая размерность.

Если энтропия растет, что нэгэнтропия убывает!
По модулю она растет. А за счет знака минус - убывает. Это понятно?

Если вас одна из них не интересует, то и другая – автоматически тоже :smile:
Ибо с чем связана одна – с тем же связана и другая!

Это как скорость движения поезда от Москвы к Петербургу.
А обратная к ней (со знаком минус!) – скорость движения того же поезда в это же самое время, определяемая от Петербурга к Москве.

А вы тут нафантазировали чего-то… по моему :smile:

Пафнутий писал(а):
29 сен 2019, 16:20
А можно подсчитывать сложность, имеющую отношение к свободной энергии, негэнтропии, которая связана с длиной молекул. А дина молекул интересна всем. Почувствуйте разницу.

Тут вы уже изобретаете свою собственную сложность.
И почему-то сами решили с чем она связана.
И почему-то именно с длиной молекул.

Вот опубликуетесь, тогда и посмотрим.

Больцман тоже прежде опубликовался, потом его труды стали известными.


Пафнутий писал(а):
29 сен 2019, 16:20
Victor N писал(а):
28 сен 2019, 22:33
Формула молекулы, для которой вы предлагаете оценивать энтропию, ничего не сообщает о энергии этой молекулы, и может ли энергия изменяться – тоже неизвестно.

--> Википедия - Энергия разрыва химической связи

И что вам это дает?
А тепловую энергию молекулы вы забыли?

Аватара пользователя
Victor N
Участник
Сообщения: 509
Зарегистрирован: 12 мар 2019, 18:01
Поблагодарили: 8 раз

Энтропия и сложность для чайников

Сообщение Victor N » 30 сен 2019, 01:10

Пафнутий писал(а):
29 сен 2019, 17:45
Сложность есть у любого объекта. Если предметы можно сосчитать, то можно вычислить сложность. Можно сложность красных предметов подсчитать, можно синих, можно всех вместе. А можно относительную сложность рассчитать. Это обычная математика. А математика не может быть не связана с термодинамикой. Важно только понимать, как именно они связаны.

Если мы говорим о Колмогоровской сложности, то ее вычислить нельзя!

Она не вычислима в общем случае.
Только о отдельных самых простых ситуациях, когда описание очень короткое.



Пафнутий писал(а):
29 сен 2019, 17:45
Вот негэнтропийная сложность, определяющая запас свободной энергии, это как раз относительная сложность и есть. Это разница между текущей сложностью системы и сложностью наиболее вероятного ее состояния.
K = |K2 - K1|

    Свободная энергия заключена в возможности перехода макросистемы из менее вероятного состояния в более вероятное
    Если текущее состояние макросистемы столь же вероятно, как и любые иные ее состояния, то свободная энергия равна нулю (такая система не может совершить работы)
    Более вероятное макросостояние  - это макросостояние с большим фазовым пространством
    Большее фазовое пространство - это то, которое имеет больше микросостояний, а соответственно и бо́льшую сложность


Можно сложность рассчитывать для слабо связанных систем, наподобие газов - жидкостей, а можно для достаточно сильно связанных - химических соединений.

Вы можете называть это как хотите.
Но с «запасом свободной энергии» связана энтропия и то, что в физике называют упорядоченностью.

Это вычислимые величины.

И это не Колмогоровская сложность! Та не вычислима принципиально!
 

Аватара пользователя
Пафнутий
Участник
Сообщения: 1606
Зарегистрирован: 31 янв 2019, 00:07
Поблагодарили: 78 раз

Энтропия и сложность для чайников

Сообщение Пафнутий » 01 окт 2019, 03:40

Victor N писал(а):
29 сен 2019, 22:55
Учитывая что батарейкой у нас является Солнце, а комнатой – Вселенная…
Пускай она там себе увеличивается.

Лишь бы под конкретным кустом появилось нечто более совершенное.

Это ведь не запрещено законами природы?

Запрещено. Насчет совершенного не знаю, это сепульки, а вот сложное запрещено вторым законом термодинамики.

Аватара пользователя
Пафнутий
Участник
Сообщения: 1606
Зарегистрирован: 31 янв 2019, 00:07
Поблагодарили: 78 раз

Энтропия и сложность для чайников

Сообщение Пафнутий » 01 окт 2019, 06:04

Victor N писал(а):
29 сен 2019, 23:30
Пафнутий писал(а):
29 сен 2019, 14:29


D - это всего лишь "статистический вес состояния, [который] является числом возможных микросостояний (способов), с помощью которых можно составить данное макроскопическое состояние", а никакая не упорядоченность. Википедия - Статистическое определение энтропии

"Число возможных микросостояний (способов)" - это и есть сложность, длина описания системы.


Вижу, теперь вам захотелось поспорить со Шрёдингером :smile:
Дело завлекательное…
Только начни подвергать сомнению физику, и сразу у вас появится с кем спорить из великих :smile:



Но таки вы ошибаетесь.
Ваша последняя фраза (которой нет в Википедии) – неправильная.

Нет! Это не Колмогоровская сложность (КС)

Еще раз повторю.

Теорема Колмогорова утверждает, что принципиально нет никакой формулы для КС.
Не существует никакой возможности ее высчитать. Это абсолютное утверждение.

Точно никто и не просит ее вычислять. В физике и химии вообще точных вычислений практически нет, в основном приблизительные. Их нам достаточно для решения большинства задач.

Википедия - Колмогоровская_сложность - СжатиеВычислять верхнюю границу для K(s) несложно: нужно просто сжать строку s каким-либо методом, реализовать соответствующий декомпрессор на выбранном языке, соединить декомпрессор со сжатой строкой и измерить длину полученной строки.


Victor N писал(а):
29 сен 2019, 23:30
Энтропия вычисляется. Не важно какими усилиями. Пусть даже потребуется труд всех китайцев в течении 100500 лет.

Это Вас кто-то обманул. Не существует точных методов расчета энтропии, все методы приблизительные. На практике пользуются табличными значениями, полученными эмпирически.

Для того, чтобы точно описать физическую систему, нужно точно знать хотя бы положения частиц и импульсы, а это невозможно в силу принципа неопределенности. Здесь еще накладывается задача трех тел, а также другие факторы, которые делают сложные системы принципиально невычислимыми. Об этом хорошо пишет Пенроуз.



Victor N писал(а):
29 сен 2019, 23:30
Но тем не менее, алгоритм для вычисления энтропии есть. Вам Шрёдингер его изложил.

Не заметил :unknown:

Victor N писал(а):
29 сен 2019, 23:30
А КС принципиально не вычисляется. Нету никакой формулы для нее. Нет алгоритма для ее вычисления. Это доказанный факт.

Поэтому там в формуле не КС. Это именно упорядоченность, о которой вы не знали раньше.


Формулу Больцмана вообще-то не Шредингер открыл, а Больцман. А у него в определении никаких сепулек и упорядоченностей нет, ибо это бессмысленные термины:
Пафнутий писал(а):
29 сен 2019, 14:29
D - это всего лишь "статистический вес состояния, [который] является числом возможных микросостояний (способов), с помощью которых можно составить данное макроскопическое состояние", а никакая не упорядоченность. Википедия - Статистическое определение энтропии 

"Число возможных микросостояний (способов)" - это и есть сложность, длина описания системы.


Шредингер мог бы число микросостояний и чайником назвать, суть бы от этого никак не изменилась. У термина "упорядоченность" нет определения. А у сложности есть. И оно почти в точности совпадает с понятием числа микросостояний. Еще этот параметр называют вероятностью, количеством информации. Это все напрямую связано с понятием сложность.

Википедия - Энтропия - В теории информацииДля энтропии (чаще в математике) встречается также название шенноновская информация или количество информации по Шеннону[3].

Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации (Клод Шеннон) сначала хотел назвать эту величину информацией


А вот что Википедия пишет об "упорядоченности":

Википедия - Энтропия в классической термодинамике. Понимание энтропии как меры беспорядкаПолучившее повсеместное распространение понимание энтропии как меры беспорядка в термодинамической системе не является, тем не менее, общепринятым[98]: «Тождественность энтропии с беспорядком не только никем никогда не была доказана и не только не может быть доказана в принципе, но и прямо противоречит реально наблюдаемым фактам…»[98]; «…применительно к реальным системам энтропия не является мерой беспорядка»[99];

Почувствуйте разницу.


Victor N писал(а):
29 сен 2019, 23:30

Пафнутий писал(а):
29 сен 2019, 14:29
Приводите определение, рассмотрим. Думаю, сильно от колмогоровской сложности не отличается. Сложность - вещь простая (С), ее невозможно определить как-то радикально по-другому.

Вам привели конкретную формулу для расчета. Считайте и получите.


А насчет определения Шрёдингер вам уже сказал. Вам которое?

Краткое или правильное или понятное? :smile: 

При чем здесь Шредингер? Вы же вроде хотели определение сложности по Шеннону привести?



Пафнутий писал(а):
29 сен 2019, 14:29
Да, дорогой друг. Так часто бывает в физике. Не всё там можно объяснить дилетантам.
Для понимания некоторых сущностей нужен соответствующий уровень, которого у нас с вами может и не быть.

Вот например чем вас не устраивает пояснение Галимова?
Он попытался объяснить каков физический смысл этой самой упорядоченности.

Вам показалось это бессмысленным? Зря.
Попробуйте подумать над его фразами. Можно обсудить.

Я лирику не обсуждаю. Приводите определение, тогда обсудим. А пока это сепульки, или синоним сложности, количества информации.

Аватара пользователя
Пафнутий
Участник
Сообщения: 1606
Зарегистрирован: 31 янв 2019, 00:07
Поблагодарили: 78 раз

Энтропия и сложность для чайников

Сообщение Пафнутий » 01 окт 2019, 07:55

Victor N писал(а):
30 сен 2019, 00:58
Пафнутий писал(а):
29 сен 2019, 16:20


Почему только программного обеспечения? А сложность технической документации, учебников по электронике, китайской фабрики, которая эту аппаратуру собрала?.. А сложность программиста?

Все зависит от выбранной нами системы для изучения.
Если хотите, можете прибавить сложность китайской фабрики и чего-там-еще…
А результат не поменяется :smile:

Колмогоровская сложность (КС) у некоторых систем может самовозрастать, как видите.

Пафнутий писал(а):
29 сен 2019, 16:20
И к тому же сложность записи на диске никак не может возрастать, поскольку изначально там записаны случайные биты, а случайная последовательность всегда сложнее любой иной. Своей записью Вы стираете случайную последовательность, а значит уменьшаете сложность.

А зачем вы себе облегчаете ситуацию?

Я же сказал, что не во всех, а в некоторых случаях это работает.

Возьмите абсолютно чистый диск прописанный нулями. Подключите его к компьютеру (вторым диском). Включите программку, которую я вам дам, и процесс пойдет.
КС этой системы начнет самовозрастать. Без участия разумного дизайнера.

Вот такая она – Колмогоровская сложность.

Вы можете хоть нулями, хоть единицами, хоть буквами зю прописывать. Но что-то мне подсказывает, что это Вам не поможет.

"Сложность может возрастать, а иногда может убывать!" :laugh3: :laugh3: Я таких глубоких мыслей давно не слышал, признаюсь Вам. Вам нужно срочно памятник ставить, я считаю.  :dsv:

3 страницы отборной демагогии! Мне кажется, в этом вопросе Вы уже Сергея нашего переплюнули. 


Victor N писал(а):
30 сен 2019, 00:58
Пафнутий писал(а):
29 сен 2019, 16:20
Да потому что это неполное описание. К этому описанию прилагается инструкция, в которой говорится, что данную формулу следует понимать, что все элементы связаны. Эта инструкция тоже входит в описание. В общем, я вижу, Вы уже с очевидным начали спорить. Это плохой признак.

Почему вы решили, что описание неполное?
Всему миру формулы H2O совершенно достаточно. Это описание на уровне учебника по химии.

Если вы желаете описать систему на более глубоком уровне, например на уровне квантовой физики, – пожалуйста!
Но тогда и описания каждого атома этой системы тоже должны быть на том же уровне.

Вы думаете, вам это поможет? :smile: 

В учебнике химии написано, что "так записываются молекулы". Это еще минимум 23 байта информации. 

Если бы этой фразы в учебнике не было, то и мир бы никогда не узнал, что в этой записи зашифрованы связи.


Хотите дальше спорить с очевидным?

Пожалуйста - муравьиная кислота. Дайте нам описание всех пяти связей и пяти атомов, чтобы оно было короче вот этой записи - HCOOH, ну или сравнялось с ней.
Изображение


Victor N писал(а):
30 сен 2019, 00:58
Пафнутий писал(а):
29 сен 2019, 16:20
Воистину упорядоченность бессмысленный и беспощадный термин.

Такова реальность… не все в ней просто и понятно нам с вами.

Согласен. Сепульки ненаучны.

Victor N писал(а):
30 сен 2019, 00:58
Пафнутий писал(а):
29 сен 2019, 16:20
Абсолютно верно. Тепловая сложность возрастает, негэнтропийная сложность убывает, сложность молекул уменьшается, свободная энергия уменьшается, энтропия растет. Всё в точности, как я и говорил.

Вот видите, у вас всё становится более запутанным. Давеча вы пытались обойтись одной КС.

Теперь получается сложностей стало две :smile: 

Почему сейчас? Их всегда было две. Память стала Вас подводить, однако. Это совсем плохой признак.


Victor N писал(а):
30 сен 2019, 00:58
Пафнутий писал(а):
29 сен 2019, 16:20
Дарвинистов обычно повергает в недоумение тот факт, что энтропия растет с увеличением хаотичности системы, и противоположная величина - негэнтропия (свободная энергия, сложность) тоже растет по мере возрастания хаотичности. Но ничего странного в этом на самом деле нет, наоборот, всё ясно и логично. Энтропия связана с описанием тех структур и взаимосвязей системы, которые отвечают за тепловую энергию. Соответственно, негэнтропия - это описание тех структур и взаимосвязей, которые отвечают за свободную энергию системы. Ясно, что с ростом хаотичности системы оба описания - и энтропийное, и негэнтропийное растут. А длина описаний - это и есть сложность. Можно сказать, что есть две сложности - тепловая энтропийная сложность, и негэнтропийная сложность. Но тепловая сложность нас не интересует, поэтому этот термин на практике не используется. А негэнтропийная сложность имеет прямое отношение к живым организмам, она нас интересует. Её мы и используем на практике, когда говорим об усложнении или упрощении термодинамической (живой) системы. Усложнение означает, что живая система содержит большее количество свободной энергии, живые структуры и взаимосвязи содержат большее количество информации, их описание более длинное.

Вам кажется всё просто и ясно. Но это может быть обманчивое впечатление.

Энтропия, как уже показано, связана с упорядоченностью. А это довольно сложное понятие.


Где показано? Кроме сепулек Вы нам пока что ничего не продемонстрировали. Вот когда будет определение, тогда и приходите.

Victor N писал(а):
30 сен 2019, 00:58
Нэгэнтропия – это вовсе не другая физическая величина!.
Это та же самая энтропия, но со знаком минус. Удобное сокращение в некоторых расчетах.
Это вообще не энергия. У нее другая размерность.

Если энтропия растет, что нэгэнтропия убывает!
По модулю она растет. А за счет знака минус - убывает. Это понятно?

Если вас одна из них не интересует, то и другая – автоматически тоже :smile:
Ибо с чем связана одна – с тем же связана и другая!

Это как скорость движения поезда от Москвы к Петербургу.
А обратная к ней (со знаком минус!) – скорость движения того же поезда в это же самое время, определяемая от Петербурга к Москве.

А вы тут нафантазировали чего-то… по моему :smile: 

Свободная энергия - это фанатазия? :shok: Мне кажется, это Вы немного зафантазировались.

"Математически энтропия определяется как функция состояния системы, определённая с точностью до произвольной постоянной" (Вики). Поэтому в физике значение имеет не сама энтропия, а разность энтропий.

Изображение
По разности энтропий в частности судят о работе, которую может совершить система, а следовательно и о свободной энергии.
Изображение - Свободная энергия Гельмгольца и максимальная работа
Изображение - Свободные энергии Гельмгольца и Гиббса

А интересующая нас сложность связана именно со свободной энергией, а не с тепловой.

Вы опять спорите с очевидным.

Victor N писал(а):
30 сен 2019, 00:58
Пафнутий писал(а):
29 сен 2019, 16:20
А можно подсчитывать сложность, имеющую отношение к свободной энергии, негэнтропии, которая связана с длиной молекул. А дина молекул интересна всем. Почувствуйте разницу.

Тут вы уже изобретаете свою собственную сложность.
И почему-то сами решили с чем она связана.
И почему-то именно с длиной молекул.

Вот опубликуетесь, тогда и посмотрим.

Больцман тоже прежде опубликовался, потом его труды стали известными.

Дойдет и до публикаций. Но здесь как раз нечего публиковать, поскольку это всем известно (ну, кроме Вас по-видимому).

Термодинамическая система всегда переходит из менее устойчивого состояния с меньшей энтропией - в более устойчивое с большей энтропией. От менее сложных систем к более сложным. Это школьный курс. Длинные молекулы не устойчивы, они переходят в компактные структуры, с дополнительными связями. За счет образования новых химических связей - сшивок - выделяется запасенная свободная энергия, которая может совершать работу, а может просто нагреть вещество.

Всё просто.

Victor N писал(а):
30 сен 2019, 00:58
Пафнутий писал(а):
29 сен 2019, 16:20

--> Википедия - Энергия разрыва химической связи

И что вам это дает?
А тепловую энергию молекулы вы забыли?

С чего Вы взяли?

Это дает все, что нужно.

Ответить