LINUX.ORG.RU

Ежедневный лимит при использовании бесплатной версии ИИ

 


0

1

Напишите, какие лимиты у ИИ, которые вы используйте. Интересует бесплатные или триальные версии. Какая реальная граница — сообщений в сутки, запросов в час или токенов? Например, при использовании генерации изображений с помощью https://duck.ai/chat выдают лимит на создание трёх изображений в сутки. При текстовых запросах, по моим наблюдениям, выдают около 30 запросов в сутки. А например, при использовании https://www.perplexity.ai/ дают около 100 запросов в сутки зарегистрированным пользователям. Напишите ссылки на ИИ, у которых максимальный бесплатный период или есть возможность обходить эти ограничения.

У нашего инстанса нет лимитов, но скорость генерации оставляет желать лучшего (генерация на древнем серверном CPU без AVX2/AVX512). Ссылок, конечно же, не будет — более одного пользователя (меня) мы не потянем. (=

Ну и вообще, тебе стоит уточнить, что именно под «ИИ» ты подразумеваешь — текст (в т.ч. код), изображения (генерация, изменение), видео (из промпта, из изображения), аудио (генерация музыки, генерация голоса, разбор голоса в текст)?

mord0d ★★★★★
()
Последнее исправление: mord0d (всего исправлений: 1)

Ежедневный лимит при использовании бесплатной версии ИИ

Много иишнецы вредно для моска.

Напишите, какие лимиты у ИИ, которые вы используйте

Да.

anonymous
()

Бесплатной? У меня две подписки (openai и copilot) от работодателя, и еще личные на $20 в anthropic и $10 в opencode go, и не трачу под ноль я только opencode go, потому что оно тормозное ппц и китайские модели оставляют желать лучшего, пользуюсь им для всякой ерунды, чтобы экономить другие подписки.

goingUp ★★★★★
()

Напишите ссылки на ИИ, у которых... есть возможность обходить эти ограничения

Ограничения обходятся с помощью денег. Так что подходят все ИИ.

Lordwind ★★★★★
()

На openrouter есть бесплатные модели, но за бесплатно обычно никто не даст ничего актуального. С тем же успехом можно на своей видеокарте запускать.

Gary ★★★★★
()
Ответ на: комментарий от maxcom

Подписка Anthropic работает в opencode

Да, через сторонний плагин. Anthropic запретили подписку в third-party агентах (api ключ можно, но это дорого), так что его официально выкинули, но через сторонний плагин все работает)

goingUp ★★★★★
()
Ответ на: комментарий от Gary

На бесплатном тарифе в OpenRouter периодически закидывают на тестирование китайский свежачок. На поиграться - очень даже хорошо.

С тем же успехом можно на своей видеокарте запускать

Нет

ivbor
()

Вообще на «халявных» тарифных планах, OAuth-встройках и web-интерфейсах четких лимитов нет уже почти не у кого. Используются «скользящие» лимиты. Например, в Qwen Studio генерация картинок - не более 5 в час, за сутки - около 20; видео - секунд 15 в одной сессии, не более 30 секунд в сутки (это данные полученные опытным путем, официальной документации по лимитам нет).

Второй момент: качество и скорость выдачи. На «халявных» web-чатах в прайм-тайм бывает приходится ждать ответов по нескольку минут (даже на самых тривиальных запросах). Некоторые провайдеры при сильной загрузке отключают reasoning-режимы (прописано в документации DeepSeek, Qwen), возможно, переключают модель (личное наблюдение. пруфов, естественно не будет).

С точки зрения доступности, удобства использования, универсальности и качества ответов порекомендую продукцию китайских товарищей. Речь про общедоступные web-чяты. *DeepSeek (v4) очень хорош в работе с текстом, в задачах с единичным запросом, не умеет в фото, видео; для целей вайб-кодинга не очень пригоден. *Qwen Studio - неплох в брейншторме, в длинных цепочках рассуждений, умеет в фото и видео (особенно хорош для целей изоляции слоев на изображении, реконструкции изображения по фрагментарным данным), есть кодинг-режим с возможностью подключения репозитория, хорошо работает с mermaid-разметкой; плохо делает графики, таблицы; отвратительно работает с кириллическими шрифтами на изображениях и видео. *Kimi - умеет все то же, что и Квен. Есть режим интеграции с OpenClaw, есть режим создания сайта/лендинга, можно запускать несколько задач одновременно из web-интерфейса (на бесплатном тарифе 2 потока, на сколько помню).

Вопчем, если понимать какой ЭйАй для какой задачи нужен, подбирать время для старта использования (в обед по сибирскому времени работает особенно хорошо)), то можно и не нащупать лимиты. Другое дело, если надо в рабочем режиме и рабочем графике - тут лучше на халяву не надеяться.

ivbor
()

почти год пользуюсь бесплатным perplexity почти каждый день, и другими ИИ не пользуюсь. …из этого поста узнал что у него есть лимит на запросы в день)

Как будто мои лимиты восприятия его ответов за день меньше чем это количество.

GPFault ★★★
()
Ответ на: комментарий от GPFault

Лимиты обычно возникают когда хочется подключить языковую модель к инструменту

В веб чатах лимитов обычно нет т.к. они медленные и расходуют мало токенов, по сравнению с инструментами, + в бесплатном веб чате может быть модель похуже.

Gary ★★★★★
()
Ответ на: комментарий от Gary

Да. Но нет. В топе LLM с ~30b активных параметров. Всего там их х10-х15. Для локального рассупонивания нужен вычислительный клустер - без вариантов.

В среднюю Нвидия с КУДА и 16Gb памяти влезает моделька на 12b-15b параметров всего (влезает с большим скрипом, пердолингом, прикручиванием отдельных инструментов управления контекстом и кэшем). В таком раскладе активных параметров будет 1,5b-2b, а скорость - единицы токенов в секунду (я Qwen2.5 на 7b параметров на домашней ПеКе разгонял до 6-7 т/с).

В таком сценарии не побаловаться, не погенерировать смищные картинки/видео совершенно никак. Повайбкодить в стиле «хочу игру, суть такова…» тоже не получится. В этом плане любой веб-сервис с «бесплатным» доступом выигрывает безоговорочно.

Чтобы локальная моделька была реально полезна, нужно кидать ее на выполнение очень узких конкретных задач, обвешивать кучей промптов, максимально стандартизировать ввод данных, желательно «подмораживать» параметры. Сомневаюсь, что человеку, который ищет «побольше бесплатных лимитов», такой вариант использования сгодится.

ivbor
()

Пользуюсь GigaCode Lite в VSCode и Android Studio. Лимитов пока не встречал.Как я понял, там сотни тыщ в день токенов, качества мне хватает.

Shadow ★★★★★
()
Последнее исправление: Shadow (всего исправлений: 1)
Ответ на: комментарий от GPFault

почти год пользуюсь бесплатным perplexity почти каждый день

Недавно ввели ограничения и лимиты - https://docs.perplexity.ai/docs/admin/rate-limits-usage-tiers.

Можешь проверить свои лимиты тут

https://www.perplexity.ai/rest/rate-limit/all https://www.perplexity.ai/rest/user/settings

Overlabor5491
() автор топика
Ответ на: комментарий от ivbor

Хотел спросить, если можно. Вот тоже запустил локально Qwen2.5 Coder 7b (llama.cpp на RX 570 8GB, ~10 t/s). Разбиваю задачи на мелкие части, получается почти хорошо. Но, если пошла мелкая ошибка или явная лажа, приходится сбрасывать контекст. Да и так иногда контекст быстро заканчивается.

Не попадалось ли хорошего локального агента, чтобы руками повторно не загружать каждый раз начальный контекст? Ну, просто, не хочется заново изобретать велосипед. Так же и не хочется пользоваться бесплатными лимитированными онлайн-тарифами. Больше интересует на python, совсем не интересно на js. Или проще своего агента сваять?

(PS: Qwen3.5 вообще контекст расходует как пулемёт. На простой вопрос: «Что такое ростбиф?» даёт 2 страницы размышлений на смеси языков, и ответ на 3 строчки)

anonymous
()
Ответ на: комментарий от anonymous

Да все популярные кодинг-агенты работают с локальными моделями. Все есть на Гитхабе - без регистрации и СМС.

  • Есть Qwen-agent на питоне,
  • DeepSeek-TUI - на расте (правда он, вроде привязан только к DeepSeek_v4).
  • Есть база - Pi-agent на тайпскрипте, очень популярный с очень развитым коммунити.
  • Я пользуюсь OpenCode - по сути это форк того же Pi. Но к нему есть виндавоз-клиент, андроид-клиент, возможность работы в режиме клиент-сервер. Сам агент у меня как раз на сервачке крутится.

Работа с контекстом в том или ином виде поддерживается во всех агентах - файлик agent.md с основными инструкчиями и промптами. Расширенная работа с контекстом реализовывается через плагины. Для популярных - огромные залежи их например. вот для Pi.

Qwen3.5 вообще контекст расходует как пулемёт. На простой вопрос: «Что такое ростбиф?» даёт 2 страницы размышлений на смеси языков, и ответ на 3 строчки

Вот для этого и есть harness-утилиты они же кодинг-агенты. Полет «фантазии» и тупняк моделек, конечно надо ограничивать. Системными промптами, разграничением доступов и ролей.

ivbor
()
Ответ на: комментарий от anonymous

а вот кстати, такие маленькие нейронки для чего вообще можно полезного использовать?

для автоматизации умного дома

anonymous
()
Ответ на: комментарий от anonymous

Вот тоже запустил локально Qwen2.5 Coder 7b (llama.cpp на RX 570 8GB, ~10 t/s).

Что-то слабо как-то. У меня более жирная модель дает 10 токенов чисто на CPU без видеокарты. Вот такая Qwen3-Next-80B-A3B-Instruct-Q4_K_M.gguf

anonymous
()
Ответ на: комментарий от anonymous

Тяжеловатенькая. Вопрос в активных параметрах: у тебя их 3 миллиарда, у него - все 7. Ну и да - новизна. Открытые модельки постоянно оптимизируют для работы со все более слабым железом.

И еще момент, для большинства случаев инференса через llama.cpp, хороший камень и много оперативки гораздо важнее видеокарточки.

ivbor
()

Пустая строка (два раза Enter) начинает новый абзац. Знак '>' в начале абзаца выделяет абзац курсивом цитирования.
Внимание: прочитайте описание разметки Markdown.
Используйте Ctrl-Enter для размещения комментария