Ранее, если модель превышала определенный порог возможностей — например, могла помогать в создании биологического оружия, — компания обязалась не развертывать и не обучать новые модели, пока не будут готовы доказанные меры защиты.
Теперь компания готова остановить разработку только при одновременном выполнении двух условий: если она лидирует в гонке ИИ и если считает риски катастрофическими. «Мы не думаем, что кому-то поможет, если мы перестанем обучать модели. Нам не кажется, что при нынешней скорости развития ИИ имеет смысл брать на себя односторонние обязательства, когда конкуренты несутся вперед», — заявил Каплан, сооснователь и научный директор Anthropic.
https://time.com/7380854/exclusive-anthropic-drops-flagship-safety-pledge/








