LINUX.ORG.RU
ФорумTalks

Сервисы для объяснения математических формул

 , ,


0

1

Здравствуйте, уважаемые посетители LORa!

Прошу совета по следующему вопросу: периодически, сталкиваюсь с трудностями при чтении статей, к примеру, с ArXiv.org, изобилующих математическими формулами - сказываются пробелы в образовании(

Подскажите, может кому попадались сервисы, куда можно вбить формулу (вопрос приведения её к нужному формату - отдельная тема) или текст с оной, получив в ответ разъяснения для не шибко грамотных - что же тут имеется в виду. Просто удостовериться, что понял мысль автора правильно.

Интересуют именно специализированные решения, пусть даже и за денюжку.

Спасибо!

★★★★
Ответ на: комментарий от gaylord

Вы вот с предыдущим оратором своим новоязом человека с толку собьёте. Я-то догадываюсь, что имелся в виду Deepseek, а если ТС пойдёт вбивать в гугл «дикпик»? :)))

hobbit ★★★★★
()
Ответ на: комментарий от beastie

Как объяснили товарищи,

wolfram alpha может только показать примеры расчета

Видимо, я его пытался неправильно использовать, запихивая туда весь пример с куском контекста…

Отдельная несложная формулой отработала:

p(xC+1:C+H|x1:C)

Input interpretation p(x C + 1:C + H, x1:C) Alternate form p((1 + C x)/(C + H), x1/C)

https://arxiv.org/pdf/2403.07815v3

Yustas ★★★★
() автор топика

Deepseek в этом хорошо разбирается. Я так многие тесты решаю по учебе из дома. ))) Просто делаешь скриншот своего вопроса со всеми формулами, шмормулами и всем в общем, да отправляешь ему скриншот и пусть решает, расписывает, поясняет. Удобно ведь.

Daedalus
()
Ответ на: комментарий от Yustas

Не знаю, кто тут виноват, Вольфрам или ты, но «объяснение» ошибочное. Там имеется в виду вероятность того, что следующие H символов будут иметь конкретные значения при условии того, что первые C символов были такие, как задано. Нотация объяснялась прямо в том же предложении, в начале.

i-rinat ★★★★★
()

Вообще рекомендую учебник по матанализу для первых курсов почитать. Будет в итоге проще, чем продираться сквозь потенциально бредовые ответы чатботов.

i-rinat ★★★★★
()

К сожалению, современные сервисы не могут за вас понять нужную вам формулу. Попробуйте обратиться к учебникам по профильным разделам математики. Проект MechMath Института прикладной механики, помнится, был хорош. Сейчас еще нашел Государственную публичную научно-техническую библиотеку России.

aiqu6Ait ★★★★
()
Последнее исправление: aiqu6Ait (всего исправлений: 1)
Ответ на: комментарий от hobbit

Типа ты не разу не гуглил 2girl 1cap, в ответ на вопрос о частных подмножествах cap-теоремы или, про «голландский штурвал» в темах о тим менеджементе?

bdrbt
()
Ответ на: комментарий от Yustas

Меньше страницы. Без диезов и лигатур. Это разве математическая формула? Просто нейронками балуются.

ratvier ★★
()
Ответ на: комментарий от hobbit

а если ТС пойдёт вбивать в гугл «дикпик»? :)))

Получит очень ху@вое объяснение...

atrus ★★★★★
()
Ответ на: комментарий от Yustas

Отдельная несложная формулой отработала:

p(xC+1:C+H|x1:C)

Ну всё же правильная формула p(x_{C+1:C+H} | x_{1:C}). Не забываем про нижние индексы.

Тот же DeepSeek даёт такое пояснение по ней:

Формула p(x_{C+1:C+H} | x_{1:C}) представляет собой условное распределение вероятностей и часто встречается в задачах прогнозирования временных рядов, обработки естественного языка (NLP) и других областях машинного обучения.

Разбор формулы:

  1. x_{1:C} — это последовательность наблюдений (или токенов) длины C.
  • Например, в NLP это может быть текст из C слов, а во временных рядах — C предыдущих значений.
  1. x_{C+1:C+H} — это последовательность из H элементов, которые нужно предсказать (прогноз на H шагов вперёд).

  2. p(x_{C+1:C+H} | x_{1:C}) — условная вероятность того, что после x_{1:C} последует x_{C+1:C+H}.

Где применяется?

  • Прогнозирование временных рядов:
    Предсказание следующих H значений на основе предыдущих C (например, прогноз цен акций, температуры и т. д.).
  • Генерация текста (NLP):
    Предсказание следующего слова (или последовательности слов) на основе предыдущего контекста (например, в GPT, LSTM).
  • Модели авторегрессии:
    Например, в Transformers или RNN, где каждый следующий элемент генерируется на основе предыдущих.

Пример:

Если C = 5, H = 3, и x_{1:5} = ["Я", "люблю", "машинное", "обучение", "потому что"], то: p(x_{6:8} | x_{1:5}) даёт распределение вероятностей для следующих 3 слов (например, "оно", "очень", "круто").

Вывод:

Формула описывает вероятностную модель предсказания будущей последовательности на основе заданного контекста. В машинном обучении такие модели обучаются максимизировать правдоподобие (likelihood) правильных продолжений.

AlexVR ★★★★★
()
Ответ на: комментарий от hibou

А потом ждет тебя карьера курьера.

Моя карьера уже моя. Мне только корочек не хватает. Я исполняющий обязанности, а надо стабильно на должность сесть. И да, Яндекс давно всем маршруты в таки определяет в навигаторах, показывает трамваи и автобусы на карте. Тоже мне новость… В городе 2GIS помогает ориентироваться что где находится, куда идти. Всю жизнь живу в этом городе, но когда надо найти какой-то магазинчик… 2GIS мастхэв просто.

Да и по учёбе сейчас все читерят, чего уж там. Кто как умеет. Кто-то совместо с нейросетками решает сидит разбирается, кто-то читерские дополнения в браузер для тестов на Moodle качает и т.д.

Daedalus
()
Последнее исправление: Daedalus (всего исправлений: 4)
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)