LINUX.ORG.RU

История изменений

Исправление watchcat382, (текущая версия) :

Если модель выложена в свободном доступе, то ты можешь поднять её дома и очередь будет доступна из тебя одного

Я уже приводил пример с Гуглом - он тоже вполне для меня доступен без всяких там очередей и задержек.

Хотя если модель будет применяться в «недомашних» задачах - то там конечно возможность локального запуска будет критична.

Если например стоит задача обучить нейросеть рисовать в таком же стиле или генерировать текст в таком же стиле, то тут гигабайты данных не нужны.

Судя по тому,что хорошо рисующие нейросети обучались именно что на гигабайтах и всё равно регулярно рисуют лишние пальцы - то по всей видимости гигабайты таки нужны. Но что-нибудь совсем простое наверно можно нарисовать и без гигабайтов.

Допускать и гадать не советую. Лучше изучите конкретные примеры.

Так как я не имею доступа к chatgpt - то я как раз изучил много всяких статей с примерами(эту кстати тоже видел так как хабр уже очень много лет читаю). Поэтому мои гадания и предположения основываются именно что на базе доступных(неспециалисту по нейросетям) фактов.

Как этот, к слову: https://habr.com/en/articles/751972/

Автор экспериментировал с генерацией диалогов с разной степенью осмысленности. Сам пишет что результат получил посредственный,хотя может быть и пригодный для какой-то детской игрушки. В играх я разбираюсь совсем слабо,так что сам оценить именно с игровой точки зрения не могу. Мне куда более интересны применения нейросеток в всякого рода околотехнической деятельности в роли «высокоэрудированного» ассистента. Вот примерно как в примере с чайником выше. Увы - пока такое на домашнем компе не запустить.

Исходная версия watchcat382, :

Если модель выложена в свободном доступе, то ты можешь поднять её дома и очередь будет доступна из тебя одного

Я уже приводил пример с Гуглом - он тоже вполне для меня доступен без всяких там очередей и задержек.

Хотя конечно если модель будет применяться в «недомашних» задачах - то там конечно возможность локального запуска будет критична.

Если например стоит задача обучить нейросеть рисовать в таком же стиле или генерировать текст в таком же стиле, то тут гигабайты данных не нужны.

Судя по тому,что хорошо рисующие нейросети обучались именно что на гигабайтах и всё равно регулярно рисуют лишние пальцы - то по всей видимости гигабайты таки нужны. Но что-нибудь совсем простое наверно можно нарисовать и без гигабайтов.

Допускать и гадать не советую. Лучше изучите конкретные примеры.

Так как я не имею доступа к chatgpt - то я как раз изучил много всяких статей с примерами(эту кстати тоже видел так как хабр уже очень много лет читаю). Поэтому мои гадания и предположения основываются именно что на базе доступных(неспециалисту по нейросетям) фактов.

Как этот, к слову: https://habr.com/en/articles/751972/

Автор экспериментировал с генерацией диалогов с разной степенью осмысленности. Сам пишет что результат получил посредственный,хотя может быть и пригодный для какой-то детской игрушки. В играх я разбираюсь совсем слабо,так что сам оценить именно с игровой точки зрения не могу. Мне куда более интересны применения нейросеток в всякого рода околотехнической деятельности в роли «высокоэрудированного» ассистента. Вот примерно как в примере с чайником выше. Увы - пока такое на домашнем компе не запустить.