> Сложность системы численно выражается как логарифм по основанию 2 к числу возможных состояний системы
Это определение не сложности, а хаотичности. Так, упорядоченная система имеет меньшее число возможных состояний, и меньшую хаотичность, чем разупорядоченная. Кроме того, считается, что чем больше хаотичность системы, тем на самом деле меньше её сложность. Т.е. сложность = минус хаотичность. Поэтому при увеличении количества состоянии системы сложность падает.
> аналогией кол-ва информации (и не в комнате, а в каждом таракане!) является удаленность таракана от центра.
Информация в каждом таракане не изменяется! Он может двигаться как в одну сторону, так и в другую ,и его среднее будет равно нулю. И если следить за каждым тараканом в отдельности, то полное количество информации также не изменяется: у тебя будут на руках координаты каждого таракана в любой момент времени, и каждая из этих координат будет изменяться от минус R до плюс R, имея среднее значение 0.
Что меняется, это когда ты переходишь от точного описания каждого таракана к усреднённому описанию "облака тараканов". Тогда ты не следишь за каждым тараканом, а следишь за их распределением. Количество этой информации меньше, чем количество полной информации, будь у тебя координаты каждого таракана. И это количество уменьшается со временем, т.к. облако расплывается - ты всё с меньшей определённостью можешь сказать, в какой точке находится конкретный таракан.
Т.е. с течением времени при точном описании каждого таракана количество информации у тебя остаётся постоянным, но при огрублённом описании тараканьего облака количество информации у тебя уменьшается.
Если ты определяешь сложность, как количество информации, то сложность также уменьшается. Ты можешь определить сложность как хаотичность, т.е. как log(количество состояний), но это число будет равно не количеству информации, а минус количеству информации. При таком определении да, твоя сложность будет расти, но такое определение строго противоположно бытовому пониманию сложности (как количество информации)
no subject
Это определение не сложности, а хаотичности.
Так, упорядоченная система имеет меньшее число возможных состояний, и меньшую хаотичность, чем разупорядоченная. Кроме того, считается, что чем больше хаотичность системы, тем на самом деле меньше её сложность. Т.е. сложность = минус хаотичность. Поэтому при увеличении количества состоянии системы сложность падает.
> аналогией кол-ва информации (и не в комнате, а в каждом таракане!) является удаленность таракана от центра.
Информация в каждом таракане не изменяется! Он может двигаться как в одну сторону, так и в другую ,и его среднее будет равно нулю. И если следить за каждым тараканом в отдельности, то полное количество информации также не изменяется: у тебя будут на руках координаты каждого таракана в любой момент времени, и каждая из этих координат будет изменяться от минус R до плюс R, имея среднее значение 0.
Что меняется, это когда ты переходишь от точного описания каждого таракана к усреднённому описанию "облака тараканов". Тогда ты не следишь за каждым тараканом, а следишь за их распределением. Количество этой информации меньше, чем количество полной информации, будь у тебя координаты каждого таракана. И это количество уменьшается со временем, т.к. облако расплывается - ты всё с меньшей определённостью можешь сказать, в какой точке находится конкретный таракан.
Т.е. с течением времени при точном описании каждого таракана количество информации у тебя остаётся постоянным, но при огрублённом описании тараканьего облака количество информации у тебя уменьшается.
Если ты определяешь сложность, как количество информации, то сложность также уменьшается. Ты можешь определить сложность как хаотичность, т.е. как log(количество состояний), но это число будет равно не количеству информации, а минус количеству информации. При таком определении да, твоя сложность будет расти, но такое определение строго противоположно бытовому пониманию сложности (как количество информации)