История изменений
Исправление watchcat382, (текущая версия) :
Если модель выложена в свободном доступе, то ты можешь поднять её дома и очередь будет доступна из тебя одного
Я уже приводил пример с Гуглом - он тоже вполне для меня доступен без всяких там очередей и задержек.
Хотя если модель будет применяться в «недомашних» задачах - то там конечно возможность локального запуска будет критична.
Если например стоит задача обучить нейросеть рисовать в таком же стиле или генерировать текст в таком же стиле, то тут гигабайты данных не нужны.
Судя по тому,что хорошо рисующие нейросети обучались именно что на гигабайтах и всё равно регулярно рисуют лишние пальцы - то по всей видимости гигабайты таки нужны. Но что-нибудь совсем простое наверно можно нарисовать и без гигабайтов.
Допускать и гадать не советую. Лучше изучите конкретные примеры.
Так как я не имею доступа к chatgpt - то я как раз изучил много всяких статей с примерами(эту кстати тоже видел так как хабр уже очень много лет читаю). Поэтому мои гадания и предположения основываются именно что на базе доступных(неспециалисту по нейросетям) фактов.
Как этот, к слову: https://habr.com/en/articles/751972/
Автор экспериментировал с генерацией диалогов с разной степенью осмысленности. Сам пишет что результат получил посредственный,хотя может быть и пригодный для какой-то детской игрушки. В играх я разбираюсь совсем слабо,так что сам оценить именно с игровой точки зрения не могу. Мне куда более интересны применения нейросеток в всякого рода околотехнической деятельности в роли «высокоэрудированного» ассистента. Вот примерно как в примере с чайником выше. Увы - пока такое на домашнем компе не запустить.
Исходная версия watchcat382, :
Если модель выложена в свободном доступе, то ты можешь поднять её дома и очередь будет доступна из тебя одного
Я уже приводил пример с Гуглом - он тоже вполне для меня доступен без всяких там очередей и задержек.
Хотя конечно если модель будет применяться в «недомашних» задачах - то там конечно возможность локального запуска будет критична.
Если например стоит задача обучить нейросеть рисовать в таком же стиле или генерировать текст в таком же стиле, то тут гигабайты данных не нужны.
Судя по тому,что хорошо рисующие нейросети обучались именно что на гигабайтах и всё равно регулярно рисуют лишние пальцы - то по всей видимости гигабайты таки нужны. Но что-нибудь совсем простое наверно можно нарисовать и без гигабайтов.
Допускать и гадать не советую. Лучше изучите конкретные примеры.
Так как я не имею доступа к chatgpt - то я как раз изучил много всяких статей с примерами(эту кстати тоже видел так как хабр уже очень много лет читаю). Поэтому мои гадания и предположения основываются именно что на базе доступных(неспециалисту по нейросетям) фактов.
Как этот, к слову: https://habr.com/en/articles/751972/
Автор экспериментировал с генерацией диалогов с разной степенью осмысленности. Сам пишет что результат получил посредственный,хотя может быть и пригодный для какой-то детской игрушки. В играх я разбираюсь совсем слабо,так что сам оценить именно с игровой точки зрения не могу. Мне куда более интересны применения нейросеток в всякого рода околотехнической деятельности в роли «высокоэрудированного» ассистента. Вот примерно как в примере с чайником выше. Увы - пока такое на домашнем компе не запустить.