История изменений
Исправление peregrine, (текущая версия) :
Датасет это не алгоритм/архитектура нейронки, а как раз вот этот вот размеченный массив данных на которых учится модель. BERT это модель, к тому же требующая нехилой вычислительной мощности, особенно на обучение, как и все LLM. Обучение LLM начинается от нескольких десятков лямов баксов, а я не олигарх, чтоб позволить себе такие траты. Потому у нас LLM только от корпораций, при том жирненьких, в РФ вроде только банки и яндекс могут себе такое позволить, ещё газпром в хорошие времена мог. Ну и ясно что отдельные сверх богатые дядьки вроде Маска и Безоса могут со своего кармана оплатить, но условный Потанин уже не знаю, ему может слишком большие траты будут, чтоб профукать с высоким шансом (чтоб бабки сделать на этом надо качеством с чат гопотой и дипсиком тягаться, а это трудно).
Исходная версия peregrine, :
Датасет это не алгоритм/архитектура нейронки, а как раз вот этот вот размеченный массив данных на которых учится модель. BERT это модель, к тому же требующая нехилой вычислительной мощности, особенно на обучение, как и все LLM. Обучение LLM начинается от нескольких десятков лямов баксов, а я не олигарх, чтоб позволить себе такие траты. Потому у нас LLM только от корпораций, при том жирненьких, в РФ вроде только банки и яндекс могут себе такое позволить, ещё газпром в хорошие времена мог.