LINUX.ORG.RU

Помогите развить новую концепцию ЯП


1

2

Как известно, результаты работы любой программы зависят от входных данных. То есть на входе мы получаем некоторый набор данных, а на выходе - другой набор или какие-либо действия компьютера. Теперь - внимание! - а что если предопределить все наборы входных данных и, скажем, разложить их по некоему басису. Далее мы записываем в программу этот басис и координаты разложения данных по нему. Для каждой записи сразу записываем результат выполнения программы.

Соответственно, результат мы получаем практически мгновенно - достаточно сопоставить результат и входные данные. То есть компьютеры будут работать быстрее в десятки раз.

Единственный минус - возможно большой размер программ. Но если так подобрать базис разложения, то всё будет мало весить - ведь записать надо будет не сами данные, а лишь «координаты» в этом базисе. Понял это ещё с уроков геометрии - там делается то же самое, но с векторами

Ответ на: комментарий от emulek

функции они разные бывают

Ололо, в математике есть ещё аналитические функции, но ты сам обрубил себе путь отступления к ним. Так что ты просто неграмотный, лол

esandmann
() автор топика
Ответ на: комментарий от emulek

А как ты определяешь информацию и энтропию?

Вот я определил понятие количества бит под аргумент и результат данной функции — в случае аргумента нужны все значения, в количестве равном мощности множества аргумента, вложение в множество строк минимальной достаточной фиксированной длины даёт количество бит (= эта фиксированная длина) равное логарифму этой мощности (округление вверх), для результата нужен только образ функции — логарифм мощности образа функции в вопросе.

f : A -> B — log(|A|) и log(|Im(f)|). Ну офигеть :)

Это даже не определения — вещи так и будут себя вести при любой попытке кодирования.

Но суть в том, что любые утверждения про эти количества сводятся к обычным теоретико-множественным (выкидыванием логарифмов). То есть например — если ты посчитаешь log(|Im(f)|) для сложения, то получишь один лишний бит (по отношению к битности _одного_ из аргументов), то есть, да, куча информации пропадает (аргумента два, информации вдвое больше, пропадает — ты написал пример разбиения), если посчитаешь для умножения — получишь примерно удвоение (тоже относительно одного аргумента), но с недобором — кое-что пропадает (тоже есть эквивалентные разбиения, хотя ближе к пределу, то есть вложению из декартового _произведения_ (раз уж умножение) аргументов). Ну вот так ведут себя функции на множествах — есть свойства которые характеризуют всё что тут происходит (например, наложение обращается (и является соответствием) если есть уникальная обратная, иначе аксиома выбора позволяет выбирать разные варианты возвращений в область определения — их количеством на элементах образа можно численно тонко характеризовать (вместо простого log(|Im(f)|) / log(|A|) <= 1) эту самую неопределённость и потерю информации на разных элементах, а в крайнем случае соответствия-существования-обратной у нас будет просто сохранение количества информации).

Речь только про кольцо

Ну всё равно есть операции возвращения константы, одного из аргументов, минимума/максимума, сложения, умножения, степени... мощности образов которых ведут себя очень по-разному. Понятно, что раз потеря информации характеризуется свойствами функции (тем, насколько она «далека» от вложения), то можно подобрать любую, обеспечив любую потерю (с информацией от нуля до информации в аргументе — тут у меня получается как у Waterlaz :)).

Зная сумму(mod256) и одно из слагаемых мы знаем и второе слагаемое

Мы знаем _только_ результат

Как-то противоречит.

Ну и смысл обсуждать этот случай?

Ну ты сам начал про конкретные сложения и умножения в конкретных конечных кольцах говорить.

quasimoto ★★★★
()
Последнее исправление: quasimoto (всего исправлений: 4)
Ответ на: комментарий от peregrine

А 5 Гб взял для наглядности

1000 бит уже МНОГО.

emulek
()
Ответ на: комментарий от peregrine

Я просто не понимаю, зачем ты это написал про свои поверхности. Решил умным показаться? Ты бы ещё сказал, что 2+2 = 4, я бы наверное вообще от шока отойти не мог.

esandmann
() автор топика
Ответ на: комментарий от quasimoto

А как ты определяешь информацию и энтропию?

ну для тебя наверное будет понятно через множества. Если у нас есть множество A из n элементов, и мы выбираем _один_ _известный_ элемент, то для того, что-бы сделать правильный выбор, нам нужно знать log₂(n) бит этой самой информации. Энтропия — противоположное понятие: если мы из того же множества выбрали вслепую один элемент, то энтропия такого выбора равна log₂(n) бит. Т.е. мы не знаем, какой у нас в руках элемент, но у этого незнания есть количественная мера, которая и называется — энтропия. Я думаю понятно, что если в множестве всего два элемента, то энтропия маленькая(либо встречу, либо нет), а если Over9000 эл-тов, то «большая»(хрен угадаешь). Очевидно, если элементов всего один, то энтропия равна нулю, т.к. мы наперёд _знаем_, что выберем. А если множество пустое, то энтропия не имеет смысла, т.к. выбирать не из чего.

Вот я определил понятие количества бит под аргумент и результат данной функции — в случае аргумента нужны все значения, в количестве равном мощности множества аргумента, вложение в множество строк минимальной достаточной фиксированной длины даёт количество бит (= эта фиксированная длина) равное логарифму этой мощности (округление вверх), для результата нужен только образ функции — логарифм мощности образа функции в вопросе.

нет. Произведение над ℕ не может быть составлено из чего угодно, а только из простых сомножителей, нейтрального элемента, и их комбинаций. Причём для каждого n эти комбинации свои. Значит ты не можешь оценивать максимумом. Да, если ты выбираешь из корзинке два шарика отдельно, то их энтропия равна сумме энтропий(ну если мы берём логарифм энтропии в битах). Но если это не шарики, а болты с навёрнутыми гайками, то энтропия меньше, ибо на любой болт любую гайку не навернуть.

мощности образов которых ведут себя очень по разному. Понятно, что раз потеря информации характеризуется свойствами функции (тем, насколько она «далека» от вложения), то можно подобрать любую, обеспечив любую потерю

ещё раз обращаю ваше внимание на то, что функция не обязательно теряет информацию. Она её может и «находить».

Зная сумму(mod256) и одно из слагаемых мы знаем и второе слагаемое Мы знаем _только_ результат

Как-то противоречит.

потому что это два разных случая. Первый тривиальный, и рассматривать тут нечего. Энтропия (при известном аргументе и сумме) сложения равна 0 или 1 бит, в зависимости от того, важен-ли нам порядок аргументов. Второй случай более интересный.

Ну ты сам начал про конкретные сложения и умножения в конкретных конечных кольцах говорить.

ну правильно: я что-то утверждал, и продемонстрировал это на конкретном примере.

emulek
()
Ответ на: комментарий от esandmann

Ты бы ещё сказал, что 2+2 = 4, я бы наверное вообще от шока отойти не мог.

во многих практических приложениях 2+2=0.

emulek
()
Ответ на: комментарий от esandmann

Затем, что на твоём рисунке график функции, если тебе это не понятно, то мне тебя жаль. А квадратный корень - одна из элементарных функций (частный случай степенной функции (x^(1/2))), можешь почитать про них в википедии.

peregrine ★★★★★
()
Ответ на: комментарий от esandmann

Ололо, в математике есть ещё аналитические функции, но ты сам обрубил себе путь отступления к ним. Так что ты просто неграмотный, лол

ваше мнение очень важно для всех этих людей.jpg

emulek
()
Ответ на: комментарий от emulek

нет.

Ну это некая теорема (о том что n элементов минимально кодируются битовыми строками ceiling(log(n)) длины, то есть множество мощности n вкладывается в множество битовых строк такой длины которая при этом минимальна для подобных вложений) — тут не может быть «нет».

Это не есть определение информации/энтропии — я его не даю.

Произведение над ℕ не может быть составлено из чего угодно, а только из ...

Ну вот опять — я про общее место о кодировании элементов любого множества строками, а ты про произведения в ℕ.

А почему не может? Возьмём _любое_ x : ℕ, возьмём ещё _любое_ y : ℕ, z = x * y — составили произведение из чего угодно. К чему тут цепочка z = x * y = x1 * x2 * y1 * y2 = ... = ProdOverPrimes^ixes_for_z?

Если для всех z (из образа!) произведение z = x * y может быть составлено из чего угодно (любые x и y), то это будет не произведение, а функция возвращения константы.

ещё раз обращаю ваше внимание на то, что функция не обязательно теряет информацию. Она её может и «находить».

Помогите развить новую концепцию ЯП (комментарий)

Или не так?

quasimoto ★★★★
()
Последнее исправление: quasimoto (всего исправлений: 1)
Ответ на: комментарий от quasimoto

Это не есть определение информации/энтропии — я его не даю.

Хотя это по сути определение максимальной энтропии (случай равномерного распределения).

quasimoto ★★★★
()
Ответ на: комментарий от quasimoto

Ну это некая теорема (о том что n элементов минимально кодируются битовыми строками ceiling(log(n)) длины, то есть множество мощности n вкладывается в множество битовых строк такой длины которая при этом минимальна для подобных вложений) — тут не может быть «нет».

может быть «нет». Я не говорю про минимальное представление на _всём_ подмножестве. Ещё раз: для разложения числа 10 на множители необходимо и достаточно всего _одного_ бита, т.к. множество разложений всего из двух эл-тов: 1*10 и 2*5. Ты говоришь про множество 1, 2, 3..., а про множество _произведений_ 1,2,3..., точнее про их разложения на два множителя. Очевидно, что для каждого эл-та своё разложение, своё множество, и своя длинна. И нельзя так говорить, что «для любого произведения надо вдвое больше бит». Вдвое больше бит нужно для любого элемента множества, в которое инъектировано произведение(в которое можно инъектировать любое произведение). А вот для любого эл-та нужно намного меньше бит.

Это не есть определение информации/энтропии — я его не даю.

увы. Это фундаментальные понятия, они аксиоматичны. Ты ещё «число» попроси определить.

Ну вот опять — я про общее место о кодировании элементов любого множества строками, а ты про произведения в ℕ.

ну вот опять: какой смысл в твоём кодировании? Ну закодировал, что дальше? Заметь, я с этим со всем и не спорю. Ну да, для представления любого элемента множества, в которое инъектировано любое произведение, нужно вдвое больше бит, чем для каждого множителя.

А почему не может? Возьмём _любое_ x : ℕ, возьмём ещё _любое_ y : ℕ, z = x * y — составили произведение из чего угодно. К чему тут цепочка z = x * y = x1 * x2 * y1 * y2 = ... =

хорошо, давай с этого конца подойдём, если тебе так угодно: да, мы можем взять любые x,y, и сконструировать из них произведение. А кто тебе сказал, что это произведение будет _любым_? Возьми квадрат числа: x² функция над ℕ вполне однозначная. 1024² = 1048576. Разве для записи квадрата нужно больше бит? Нет, столько же, т.к. число 1048575 кодировать не нужно. Как и остальные предыдущие числа, кроме 1023.

Ну и в общем, если есть величина x, то для любой функции f энтропия f(x) _меньше_или_равна_ энтропии x.

Или не так?

не для «любой», а для однозначной только. Он сам мне многозначную нарисовал, с петельками. Очень хороший контрпример к его же утверждению. Или ты тоже настаиваешь, что sqrt(x) «не функция»?

И да, функция, обратная к бинарному сложению/умножению(над ℚ) — многозначная. А над ℝ ещё и бесконечнозначная. И раз мы решились считать энтропию(меру нашего НЕзнания), то мы как раз с этого конца подходить.

emulek
()
Ответ на: комментарий от quasimoto

Хотя это по сути определение максимальной энтропии (случай равномерного распределения).

осталось тебе только доказать, что произведения распределены равномерно. Но ты наверное и так знаешь, что никакой равномерности там нет.

Мы живём в таком странном мире, в котором дискретное логарифмирование — дьявольски сложная задача. И ни о какой «равномерности» произведения не может идти речи.

emulek
()
Ответ на: комментарий от emulek

может быть «нет».

достаточно всего _одного_ бита, т.к. множество разложений всего из двух эл-тов: 1*10 и 2*5.

А говоришь «нет», хотя тут же сам используешь log(2 состояния) = 1 бит.

И нельзя так говорить, что «для любого произведения надо вдвое больше бит».

Никто и не говорит. Но ты уже начал пересказывать то что я тебе выше писал, тут — инъективность, «примерно удвоение», цифры были тут — 11 бит вместо 12-ти, ст-но про удвоение начал спорить сам с собой :)

Это фундаментальные понятия, они аксиоматичны

Это конкретное определение — Shannon entropy.

какой смысл в твоём кодировании? Ну закодировал, что дальше?

И выяснил необходимое и достаточное количество бит. Под все результаты, да. Его можно сделать больше, но это не имеет смысла (нам и так хватает — есть достаточное), его нельзя сделать меньше, а то результаты не влезут (оно необходимо). Разговор начался с того, что ровно один бит забывается, что это какое-то свойства широкого класса операций на кольцах ([1]), чего я так и не понял (пусть даже максимальной энтропии определённой через мощности (без вероятностей) не достаточно).

А кто тебе сказал, что это произведение будет _любым_?

Я уже говорил — если для любых оно будет любым, то это будет не умножение, а возвращение константы (или вообще не функция а декартов куб), мы вообще про что говорим? Ты любишь брать безобидные вещи и обвешивать их НЁХ, не знаю, такое у меня впечатление :)

Возьми квадрат числа: x² функция над ℕ вполне однозначная.

В смысле инъективная? Ну да.

Разве для записи квадрата нужно больше бит?

Ну считай — f : D -> D, f = x |-> x * x, инъективная функция Im(f) ~ D, log(|Im(f)|) = log(|D|). Нет, нужно столько же бит. АПТС? Во всех этих примерах максимальная энтропия работает как должна, но она не говорит ничего про [1]...

Кроме того, я ж говорю, что энтропия не увеличивается (если честно без неявных сужений), а ты спрашиваешь про большее количество бит? Если в домене n информации то всё что можно сделать это или забыть что-то (или всё), или сохранить инъекцией, чего-то круче нет (больше будет с многозначными функциями).

Или ты тоже настаиваешь, что sqrt(x) «не функция»?

Нет, но я не вижу как это связано с возможным ростом энтропии :(

Кстати, http://en.wikipedia.org/wiki/Unitarity_(physics), хотя это уже про немного другую информацию.

И да, функция, обратная к бинарному сложению/умножению(над ℚ) — многозначная. А над ℝ ещё и бесконечнозначная. И раз мы решились считать энтропию(меру нашего НЕзнания), то мы как раз с этого конца подходить.

Ага, ну про аксиому выбора тоже уже было.

quasimoto ★★★★
()
Последнее исправление: quasimoto (всего исправлений: 1)
Ответ на: комментарий от emulek

http://arxiv.org/abs/1106.1791

A measure-preserving function can map several points to the same point, but not vice versa, so this change in entropy is always a decrease. Since the second law of thermodynamics speaks of entropy increase, this may seem counterintuitive. It may seem less so if we think of the function as some kind of data processing that does not introduce any additional randomness. Then the entropy can only decrease, and we can talk about the ‘information loss’ associated with the function.

quasimoto ★★★★
()

Это давно используется в вычислениях, см. разложение Паде итд.

sanaris
()
Ответ на: комментарий от quasimoto

А говоришь «нет», хотя тут же сам используешь log(2 состояния) = 1 бит.

для _одного_ конкретного подмножества — да, ты прав. Но ты пытаешься обобщить на множество подмножеств. Увы — нет.

Но ты уже начал пересказывать то что я тебе выше писал, тут — инъективность, «примерно удвоение», цифры были тут — 11 бит вместо 12-ти, ст-но про удвоение начал спорить сам с собой :)

я пытаюсь объяснить в понятных тебе терминах.

Это конкретное определение — Shannon entropy.

Энтропия Шеннона — частный случай того, о чём говорю я. Моя энтропия дискретна, а по Шеннону она непрерывна.

И выяснил необходимое и достаточное количество бит. Под все результаты, да. Его можно сделать больше, но это не имеет смысла (нам и так хватает — есть достаточное), его нельзя сделать меньше, а то результаты не влезут (оно необходимо)

и первое и второе заключение более чем спорно. С чего ты взял, что для произведения нужно вдвое больше бит? Ведь я уже показал на примере квадратов, что нужно ровно столько же? Просто кодировать нужно по другому.

Разговор начался с того, что ровно один бит забывается, что это какое-то свойства широкого класса операций на кольцах ([1]), чего я так и не понял (пусть даже максимальной энтропии определённой через мощности (без вероятностей) не достаточно).

я тут с месяц назад упарывался с троичной СС (полем Галуа GF(3)), там очень удобны тернарные операции вида f(x,y,z). Дык там вообще log₂(6) битов теряется. xyz,xzy,yxz,yzx,zxy,zyx; если операция коммутативная в тернарном смысле. Я долго ломал голову, куда девается информация, да ещё в таком странном количестве.

Я уже говорил — если для любых оно будет любым, то это будет не умножение, а возвращение константы, мы вообще про что говорим?

я криво высказался. Я имел ввиду, что кто тебе сказал, что мощность множества произведений эквивалентна мощности множества чисел записанных n битами? Перемножая uint8_t ты получаешь uint16_t. Но почему ты считаешь, что этот uint16_t нельзя закодировать более экономно?

Кроме того, я ж говорю, что энтропия не увеличивается (если честно без неявных сужений), а ты спрашиваешь про большее количество бит? Если в домене n информации то всё что можно сделать это или забыть что-то (или всё), или сохранить инъекцией, чего-то круче нет (больше будет с многозначными функциями).

с этим согласен. С поправкой на неявную информацию, которую мы привносим в систему вместе с любой бинарной функцией: на _какой_ вход «сумматора» мы подаём _какой_ «сигнал».

Часто эта дополнительная информация влияет на практические вычисления. См. http://ru.wikipedia.org/wiki/Парадокс_мальчика_и_девочки

Нет, но я не вижу как это связано с возможным ростом энтропии

а знак функции ты как определишь?

emulek
()
Ответ на: комментарий от quasimoto

A measure-preserving function can map several points to the same point, but not vice versa, so this change in entropy is always a decrease. Since the second law of thermodynamics speaks of entropy increase, this may seem counterintuitive. It may seem less so if we think of the function as some kind of data processing that does not introduce any additional randomness. Then the entropy can only decrease, and we can talk about the ‘information loss’ associated with the function.

о. Как раз то, о чём я и говорю.

emulek
()
Ответ на: комментарий от emulek

о. Как раз то, о чём я и говорю.

На третьей странице, а на второй было ещё по-другому (или Я НИ ТО ИМЕЛ В ВИДУ!1 :)).

Ну то есть по стрелочке A -> B энтропия убывает, информация теряется (как хочет, не на один бит), ты с этим начал спорить, но закончил тем, что вот зато по стрелочке B -> A энтропия увеличивается и информация возвращаетсо!

Предыдущий пост — ты что-то меня не понимаешь (такое ощущение что вообще не читаешь, но может это я просто непонятно пишу) и приписываешь какие-то глупые утверждения которых я не делал, лень уже. Там всё просто, я ничего не пытаюсь «обобщить» — ты усложняешь, просто используй определения максимальной энтропии которые я озвучил, они дают ответы на твои вопросы, эти ответы даже такие как ты хочешь, я думаю.

Нет, но я не вижу как это связано с возможным ростом энтропии

...

Ты же уже вроде решил, что роста энтропии в направлении применения функции нет...

а знак функции ты как определишь?

Какой знак? Ты опять хочешь сделать ненужное усложнение (хотя можно — square : D -> D; square(x) = x * x; sqrt : Im(square) -> D^2; sqrt(x * x) = < -x, +x >, но зачем).

quasimoto ★★★★
()
Ответ на: комментарий от emulek

увы. Это фундаментальные понятия, они аксиоматичны. Ты ещё «число» попроси определить.

Энтропия имеет вполне строгое определение. -\sum p(x) * log p(x)

Waterlaz ★★★★★
()
Ответ на: комментарий от emulek

И да, функция, обратная к бинарному сложению/умножению(над ℚ) — многозначная. А над ℝ ещё и бесконечнозначная. И раз мы решились считать энтропию(меру нашего НЕзнания), то мы как раз с этого конца подходить.

Многозначная функция не есть функцией. Ок? Не нужно обманываться тем, что в названии понятия «многозначная функция» есть еще и слово «функция».

Аналогично, в математике нет определения понятия «число» не потому, что оно аксиоматично, а потому, что нет такого понятия вовсе. Но можно дать определение натуральному числу, действительному числу или комплексному числу.

Утверждения типа «пусть x - число, тогда...» не имеют смысла.

Waterlaz ★★★★★
()
Ответ на: комментарий от emulek

Энтропия Шеннона — частный случай того, о чём говорю я. Моя энтропия дискретна, а по Шеннону она непрерывна.

Во-первых, Шеннон определял энтропию для дискретных величин. Во-вторых, это то, о чем я говорил, что ты не умеешь грамотно высказывать свою мысль. Когда ты говоришь об энтропии в контексте количества бит, то все в первую очередь думают об энтропии Шеннона, а не о НЕХ, которая есть только в твоем мозгу и определение которой ты отказываешься дать.

Waterlaz ★★★★★
()
Ответ на: комментарий от quasimoto

Ну то есть по стрелочке A -> B энтропия убывает, информация теряется (как хочет, не на один бит), ты с этим начал спорить, но закончил тем, что вот зато по стрелочке B -> A энтропия увеличивается и информация возвращаетсо!

ох... Ну это смотря как посмотреть. Полезная информация всегда не возрастает. Но вот энтропия может как расти, так и уменьшаться в любую сторону. Когда функция даёт меньше информации(информация теряется в функции) энтропия растёт, т.к. мы меньше знаем про аргументы. Когда функция даёт больше информации, то энтропия аргументов тоже растёт, как и функции. Но вот полезной информации не прибавляется. Как например в случае квадратного корня, который даёт два результата из однозначного аргумента. Ну можно ещё монетку подкинуть — информацию орёл/решка ты получишь.

Энтропия может уменьшаться, но только самой функции. Т.е. например модуль(квадрат числа) всегда положителен. Определённо. Толку от такого «понижения» нет никакого.

ты усложняешь, просто используй определения максимальной энтропии которые я озвучил, они дают ответы на твои вопросы, эти ответы даже такие как ты хочешь, я думаю.

не. Они конечно такие, как я хочу, но IRL всё сложнее. Я не усложняю, просто жизнь такая.

emulek
()
Ответ на: комментарий от Waterlaz

Многозначная функция не есть функцией. Ок?

ЩИТО?

Не нужно обманываться тем, что в названии понятия «многозначная функция» есть еще и слово «функция».

ЩИТО???

Аналогично, в математике нет определения понятия «число» не потому, что оно аксиоматично, а потому, что нет такого понятия вовсе.

ЩИТО?????

emulek
()
Ответ на: комментарий от Waterlaz

Во-первых, Шеннон определял энтропию для дискретных величин. Во-вторых, это то, о чем я говорил, что ты не умеешь грамотно высказывать свою мысль. Когда ты говоришь об энтропии в контексте количества бит, то все в первую очередь думают об энтропии Шеннона

ну пусть думают, я не против.

а не о НЕХ, которая есть только в твоем мозгу и определение которой ты отказываешься дать.

я не отказываюсь, а просто не могу. Не хватает педагогического образования.

emulek
()
Ответ на: комментарий от emulek

я не отказываюсь, а просто не могу. Не хватает педагогического образования.

Ну, если не можешь, то тем хуже.

Представляю я себе статьи в научных журналах с абстрактами в духе «мы тут доказали свойство одной штуки, но штуку определить не можем, да и свойство сформулировать что-то тоже не очень». Шикарно. Вот у тебя и получаются посты как у больного шизофазией, где ты споришь сам с собой.

Waterlaz ★★★★★
()
Последнее исправление: Waterlaz (всего исправлений: 1)
Ответ на: комментарий от emulek

хрень какая-то у тебя написана.

Ну какая хрень написано? Почитай определение функции и определение многозначной функции.

Waterlaz ★★★★★
()
Ответ на: комментарий от Waterlaz

Представляю я себе статьи в научных журналах с абстрактами в духе «мы тут доказали свойство одной штуки, но штуку определить не можем, да и свойство сформулировать что-то тоже не очень». Шикарно.

т.е. ты думаешь, что попал в научный журнал, да? А я, значит, доктор наук? Шикарно.

emulek
()
Ответ на: комментарий от emulek

определение масло через маслянистость? Не нужно.

определение энтропии через вероятность - это уже масло через масленистость? Учти, например, что определить вероятность через энтропию не получится.

ЗЫ а определение окружности через понятие точки ты тоже не принимаешь? =)

Waterlaz ★★★★★
()
Ответ на: комментарий от emulek

т.е. ты думаешь, что попал в научный журнал, да? А я, значит, доктор наук? Шикарно.

Я думаю, что если ты уж и используешь слова, за которыми уже закреплены устоявшиеся значения, то хотя бы потрудись объяснить, что за НЕХ ты под этим понимаешь.

Waterlaz ★★★★★
()
Ответ на: комментарий от Waterlaz

Учти, например, что определить вероятность через энтропию не получится.

дык давай определение вероятности. А там и посмотрим.

emulek
()
Ответ на: комментарий от Waterlaz

Я думаю, что если ты уж и используешь слова, за которыми уже закреплены устоявшиеся значения, то хотя бы потрудись объяснить, что за НЕХ ты под этим понимаешь.

отмотай повыше. Я уже давал определения.

emulek
()
Ответ на: комментарий от emulek

ну дык цитируй.

Функция f из X в Y - это подмножество декартового произведения XxY, в котором для любого x из X существует _единственная_ пара (x, y).

Многозначная функция f из X в Y - это подмножество декартового произведения XxY, в котором для любого x из X существует пара (x, y).

Waterlaz ★★★★★
()
Ответ на: комментарий от emulek

отмотай повыше. Я уже давал определения.

Если ты имеешь ввиду вот эту хрень

Если у нас есть множество A из n элементов, и мы выбираем _один_ _известный_ элемент, то для того, что-бы сделать правильный выбор, нам нужно знать log₂(n) бит этой самой информации. Энтропия — противоположное понятие: если мы из того же множества выбрали вслепую один элемент, то энтропия такого выбора равна log₂(n) бит. Т.е. мы не знаем, какой у нас в руках элемент, но у этого незнания есть количественная мера, которая и называется — энтропия. Я думаю понятно, что если в множестве всего два элемента, то энтропия маленькая(либо встречу, либо нет), а если Over9000 эл-тов, то «большая»(хрен угадаешь). Очевидно, если элементов всего один, то энтропия равна нулю, т.к. мы наперёд _знаем_, что выберем. А если множество пустое, то энтропия не имеет смысла, т.к. выбирать не из чего.

то это не определение.

Waterlaz ★★★★★
()
Ответ на: комментарий от emulek

дык давай определение вероятности. А там и посмотрим.

Это мера подмножеств множества элементарных событий.

Waterlaz ★★★★★
()
Ответ на: комментарий от Waterlaz

Функция f из X в Y - это подмножество декартового произведения XxY, в котором для любого x из X существует _единственная_ пара (x, y).

над ℝ у тебя получается строго монотонная функция, и только она. Откуда цитата-то?

Многозначная функция f из X в Y - это подмножество декартового произведения XxY, в котором для любого x из X существует пара (x, y).

по твоему получается, что y=sqrt(x) даже не является «многозначной функцией», т.к. над ℝ значения есть на для любого аргумента.

emulek
()
Ответ на: комментарий от Waterlaz

то это не определение.

это лучше твоей хрени, которая никому не нужна, ибо на практике в 95% случаев не применима. Зачем нужно определение функции, под которое попадают только 5% функций, а остальные ты отбрасываешь, как «не функции»?

emulek
()
Ответ на: комментарий от Waterlaz

Это мера подмножеств множества элементарных событий.

ну естественно. Это не определение, а цитата из определения.

Но даже дело не в этом. Ты дал куцее определение _меры_, а вовсе не самого понятия. Так я и энтропию могу определить как «логарифм числа элементов множества».

emulek
()
Ответ на: комментарий от emulek

над ℝ у тебя получается строго монотонная функция, и только она. Откуда цитата-то?

Не получается. Это не цитата.

по твоему получается, что y=sqrt(x) даже не является «многозначной функцией», т.к. над ℝ значения есть на для любого аргумента.

Да, твой sqrt(x) не есть многозначной функцией из R в R.

Либой R+->R, либо R->C

R+ - множество неотрицательных вещественных чисел.

Waterlaz ★★★★★
()
Ответ на: комментарий от emulek

это лучше твоей хрени, которая никому не нужна, ибо на практике в 95% случаев не применима.

охлол. Вся теория кодирования вдоль и поперек использует понятие информационной энтропии.

Зачем нужно определение функции, под которое попадают только 5% функций, а остальные ты отбрасываешь, как «не функции»?

Под мое определение функции попадают все функции в математике.

Waterlaz ★★★★★
()
Ответ на: комментарий от emulek

Но даже дело не в этом. Ты дал куцее определение _меры_, а вовсе не самого понятия. Так я и энтропию могу определить как «логарифм числа элементов множества».

Определение меры я не давал

Waterlaz ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.