История изменений
Исправление quasimoto, (текущая версия) :
Вот смотри что ты говоришь:
Информации становится меньше, энтропия растёт.
Ладно, «энтропия» это грубо говоря величина противоположная информации.
Энтропия измеряет информацию, это синонимы. entropy can only decrease — we can talk about the ‘information loss’ associated with the function, стало меньше энтропии — стало меньше информациии, и наоборот. Меньше энтропии, меньше хаоса, больше определённости, меньше состояний, меньше информации для описания системы; больше энтропии, больше хаоса, меньше определённости, больше состояний, больше информации.
http://en.wikipedia.org/wiki/Shannon_information
Shannon entropy is the average unpredictability in a random variable, which is equivalent to its information content.
http://en.wikipedia.org/wiki/Quantum_information
Quantum information, and changes in quantum information, can be quantitatively measured by using an analogue of Shannon entropy, called the von Neumann entropy.
Но вот энтропия может как расти, так и уменьшаться в любую сторону.
Энтропия не может расти для функции — только оставаться такой же или уменьшаться. Ты же уже с этим согласился, когда сказал «о. Как раз то, о чём я и говорю.»?
Если взять любую не инъективную функцию (как квадрат на целых числах), то она будет уменьшать информацию (вот там картинка — http://en.wikipedia.org/wiki/Surjection), у неё не будет однозначной обратной, будет многозначная (у квадрата будет двузначный корень со знаком в качестве обратной), которая, можно сказать, увеличивает информацию обратно (и то — строго говоря исходные данные по результату не восстановить, только диапазон в котором они находятся).
Они конечно такие, как я хочу, но IRL всё сложнее. Я не усложняю, просто жизнь такая.
Ну привёл бы пример, а то всё квадраты с корнями и сложения с умноженными в кольцах, с которыми и без усложнений всё понятно.
Исходная версия quasimoto, :
Вот смотри что ты говоришь:
Информации становится меньше, энтропия растёт.
Ладно, «энтропия» это грубо говоря величина противоположная информации.
Энтропия измеряет информацию, это синонимы. entropy can only decrease — we can talk about the ‘information loss’ associated with the function, стало меньше энтропии — стало меньше информациии, и наоборот. Меньше энтропии, меньше хаоса, больше определённости, меньше состояний, меньше информации для описания системы; больше энтропии, больше хаоса, меньше определённости, больше состояний, больше информации.
http://en.wikipedia.org/wiki/Shannon_information
Shannon entropy is the average unpredictability in a random variable, which is equivalent to its information content.
http://en.wikipedia.org/wiki/Quantum_information
Quantum information, and changes in quantum information, can be quantitatively measured by using an analogue of Shannon entropy, called the von Neumann entropy.
Но вот энтропия может как расти, так и уменьшаться в любую сторону.
Энтропия не может расти для функции — только оставаться такой же или уменьшаться. Ты же уже с этим согласился, когда сказал «о. Как раз то, о чём я и говорю.»?
Если взять любую не инъективную функцию (как квадрат на целых числах), то она будет уменьшать информацию (вот там картинка — http://en.wikipedia.org/wiki/Surjection), у неё не будет однозначной обратной, будет многозначная (у квадрата будет двузначный корень со знаком в качестве обратной), которая, можно, сказать, увеличивает информацию обратно (и то — строго говоря исходные данные по результату не восстановить, только диапазон в котором они находятся).
Они конечно такие, как я хочу, но IRL всё сложнее. Я не усложняю, просто жизнь такая.
Ну привёл бы пример, а то всё квадраты с корнями и сложения с умноженными в кольцах, с которыми и без усложнений всё понятно.