История изменений
Исправление foror, (текущая версия) :
Не проблема, только для запуска LLM локально нужна будет минимум rtx 3090 24 GB. Плюс написать склейку между операционкой и LLM для передачи/мапинга голосовых команд на скрипты, потому что современные ОС так и остались по уровню развития на уровне 80-х годов.
Хотя LLM может сама скрипты генерить и думаю на простых командах галлюцинаций быть не должно. Тогда нужно будет просто запускать то, что тебе LLM-ка выдала. Плюс потребуется от 4-х rtx 3090 24 GB, если у тебя более сложные команды пойдут на генерацию скриптов.
Исправление foror, :
Не проблема, только для запуска LLM локально нужна будет минимум rtx 3090 24 GB. Плюс написать склейку между операционкой и LLM для передачи/мапинга голосовых команд на скрипты, потому что современные ОС так и остались по уровню развития на уровне 80-х годов.
Хотя LLM может сама скрипты генерить и думаю на простых командах галkюцинаций быть не должно. Тогда нужно будет просто запускать то, что тебе LLM-ка выдала. Плюс потребуется от 4-х rtx 3090 24 GB, если у тебя более сложные команды пойдут на генерацию скриптов.
Исправление foror, :
Не проблема, только для запуска LLM локально нужна будет минимум rtx 3090 24 GB. Плюс написать склейку между операционкой и LLM для передачи команд, потому что современные ОС так и остались по уровню развития на уровне 80-х годов.
Хотя LLM может сама скрипты генерить и думаю на простых командах галkюцинаций быть не должно. Тогда нужно будет просто запускать то, что тебе LLM-ка выдала. Плюс потребуется от 4-х rtx 3090 24 GB, если у тебя более сложные команды пойдут на генерацию скриптов.
Исправление foror, :
Не проблема, только для запуска LLM локально нужна будет минимум rtx 3090 24 GB. Плюс написать склейку между операционкой и LLM для передачи команд, потому что современные ОС так и остались по уровню развития на уровне 80-х годов.
Хотя LLM может сама скрипты генерить и думаю на простых командах галюцинаций быть не должно. Тогда нужно будет просто запускать то, что тебе LLM-ка выдала. Плюс потребуется от 4-х rtx 3090 24 GB, если у тебя более сложные команды пойдут на генерацию скриптов.
Исходная версия foror, :
Не проблема, только для запуска LLM локально нужна будет минимум rtx 3090 24 GB. Плюс написать склейку между операционкой и LLM для передачи команд, потому что современные ОС так и остались по уровню развития на уровне 80-х годов.