История изменений
Исправление quasimoto, (текущая версия) :
может быть «нет».
достаточно всего _одного_ бита, т.к. множество разложений всего из двух эл-тов: 1*10 и 2*5.
А говоришь «нет», хотя тут же сам используешь log(2 состояния) = 1 бит.
И нельзя так говорить, что «для любого произведения надо вдвое больше бит».
Никто и не говорит. Но ты уже начал пересказывать то что я тебе выше писал, тут — инъективность, «примерно удвоение», цифры были тут — 11 бит вместо 12-ти, ст-но про удвоение начал спорить сам с собой :)
Это фундаментальные понятия, они аксиоматичны
Это конкретное определение — Shannon entropy.
какой смысл в твоём кодировании? Ну закодировал, что дальше?
И выяснил необходимое и достаточное количество бит. Под все результаты, да. Его можно сделать больше, но это не имеет смысла (нам и так хватает — есть достаточное), его нельзя сделать меньше, а то результаты не влезут (оно необходимо). Разговор начался с того, что ровно один бит забывается, что это какое-то свойства широкого класса операций на кольцах ([1]), чего я так и не понял (пусть даже максимальной энтропии определённой через мощности (без вероятностей) не достаточно).
А кто тебе сказал, что это произведение будет _любым_?
Я уже говорил — если для любых оно будет любым, то это будет не умножение, а возвращение константы (или вообще не функция а декартов куб), мы вообще про что говорим? Ты любишь брать безобидные вещи и обвешивать их НЁХ, не знаю, такое у меня впечатление :)
Возьми квадрат числа: x² функция над ℕ вполне однозначная.
В смысле инъективная? Ну да.
Разве для записи квадрата нужно больше бит?
Ну считай — f : D -> D, f = x |-> x * x, инъективная функция Im(f) ~ D, log(|Im(f)|) = log(|D|). Нет, нужно столько же бит. АПТС? Во всех этих примерах максимальная энтропия работает как должна, но она не говорит ничего про [1]...
Кроме того, я ж говорю, что энтропия не увеличивается (если честно без неявных сужений), а ты спрашиваешь про большее количество бит? Если в домене n информации то всё что можно сделать это или забыть что-то (или всё), или сохранить инъекцией, чего-то круче нет (больше будет с многозначными функциями).
Или ты тоже настаиваешь, что sqrt(x) «не функция»?
Нет, но я не вижу как это связано с возможным ростом энтропии :(
Кстати, http://en.wikipedia.org/wiki/Unitarity_(physics), хотя это уже про немного другую информацию.
И да, функция, обратная к бинарному сложению/умножению(над ℚ) — многозначная. А над ℝ ещё и бесконечнозначная. И раз мы решились считать энтропию(меру нашего НЕзнания), то мы как раз с этого конца подходить.
Ага, ну про аксиому выбора тоже уже было.
Исходная версия quasimoto, :
может быть «нет».
достаточно всего _одного_ бита, т.к. множество разложений всего из двух эл-тов: 1*10 и 2*5.
А говоришь «нет», хотя тут же сам используешь log(2 состояния) = 1 бит.
И нельзя так говорить, что «для любого произведения надо вдвое больше бит».
Никто и не говорит. Но ты уже начал пересказывать то что я тебе выше писал, тут — инъективность, «примерно удвоение», цифры были тут — 11 бит вместо 12-ти, ст-но про удвоение начал спорить сам с собой :)
Это фундаментальные понятия, они аксиоматичны
Это конкретное определение — Shannon entropy.
какой смысл в твоём кодировании? Ну закодировал, что дальше?
И выяснил необходимое и достаточное количество бит. Под все результаты, да. Его можно сделать больше, но это не имеет смысла (нам и так хватает — есть достаточное), его нельзя сделать меньше, а то результаты не влезут (оно необходимо). Разговор начался с того, что ровно один бит забывается, что это какое-то свойства широкого класса операций на кольцах ([1]), чего я так и не понял (пусть даже максимальной энтропии определённой через мощности (без вероятностей) не достаточно).
А кто тебе сказал, что это произведение будет _любым_?
Я уже говорил — если для любых оно будет любым, то это будет не умножение, а возвращение константы, мы вообще про что говорим? Ты любишь брать безобидные вещи и обвешивать их НЁХ, не знаю, такое у меня впечатление :)
Возьми квадрат числа: x² функция над ℕ вполне однозначная.
В смысле инъективная? Ну да.
Разве для записи квадрата нужно больше бит?
Ну считай — f : D -> D, f = x |-> x * x, инъективная функция Im(f) ~ D, log(|Im(f)|) = log(|D|). Нет, нужно столько же бит. АПТС? Во всех этих примерах максимальная энтропия работает как должна, но она не говорит ничего про [1]...
Кроме того, я ж говорю, что энтропия не увеличивается (если честно без неявных сужений), а ты спрашиваешь про большее количество бит? Если в домене n информации то всё что можно сделать это или забыть что-то (или всё), или сохранить инъекцией, чего-то круче нет (больше будет с многозначными функциями).
Или ты тоже настаиваешь, что sqrt(x) «не функция»?
Нет, но я не вижу как это связано с возможным ростом энтропии :(
Кстати, http://en.wikipedia.org/wiki/Unitarity_(physics), хотя это уже про немного другую информацию.
И да, функция, обратная к бинарному сложению/умножению(над ℚ) — многозначная. А над ℝ ещё и бесконечнозначная. И раз мы решились считать энтропию(меру нашего НЕзнания), то мы как раз с этого конца подходить.
Ага, ну про аксиому выбора тоже уже было.