История изменений
Исправление kaldeon, (текущая версия) :
конечно хорошо, но как там в IDE unix обстоят дела с тем, что ты говоришь LLM «отрефактори мне вот это вот так» и оно делает и приносит тебе на ревью?
Я вот думаю как это сделать у себя. Я таким, в принципе, ещё не разу не пользовался, обычно просто копирую существующий код и дальше переделываю, пока все тесты не начнут проходить.
Но я не знаю как лучше сделать интеграцию с LLM. Я могу без особых проблем скормить апихе несколько файлов и сказать «используй это, чтобы сгенерировать код для следующей задачи: бла-бла-бла». Но сколько файлов ей разумно кормить? Два? Десять? Пятьдесят? Тысячу?
В остальном, я пользуюсь LLM как альтернативой гуглу, в таком стиле:
echo что такое транш |chat отвечай в контексте финтеха
chat принимает в аргументах system-сообщение, в /dev/stdin одно user-сообщение, в /dev/stdout ответ. Контекст тоже умещается в эту модель: обычный фильтр превращается в REPL. Поскольку я использую Acme, вместо «что такое транш» можно выделить мышкой любой срез в файле и нажать на “|chat”, сводя весь процесс к обычной Select-Cut-Paste-Undo работе с текстом.
Исправление kaldeon, :
конечно хорошо, но как там в IDE unix обстоят дела с тем, что ты говоришь LLM «отрефактори мне вот это вот так» и оно делает и приносит тебе на ревью?
Я вот думаю как это сделать у себя. Я таким, в принципе, ещё не разу не пользовался, обычно просто копирую существующий код и дальше переделываю, пока все тесты не начнут проходить.
Но я не знаю как лучше сделать интеграцию с LLM. Я могу без особых проблем скормить апихе несколько файлов и сказать «используй это, чтобы сгенерировать код для следующей задачи: бла-бла-бла». Но сколько файлов ей разумно кормить? Два? Десять? Пятьдесят? Тысячу?
В остальном, я пользуюсь LLM как альтернативой гуглу, в таком стиле:
echo что такое транш |chat отвечай в контексте финтеха
chat принимает в аргументах system-сообщение, в /dev/stdin одно user-сообщение, в /dev/stdout ответ. Контекст тоже умещается в эту модель: обычный фильтр превращается в REPL. Поскольку я использую Acme, вместо «что такое транш» можно выделить мышкой любой срез в файле и нажать на “|chat”, сводя весь процесс к обычной Cut-Paste-Undo работе с текстом.
Исходная версия kaldeon, :
конечно хорошо, но как там в IDE unix обстоят дела с тем, что ты говоришь LLM «отрефактори мне вот это вот так» и оно делает и приносит тебе на ревью?
Я вот думаю как это сделать у себя. Я таким, в принципе, ещё не разу не пользовался, обычно просто копирую существующий код и дальше переделываю, пока все тесты не начнут проходить.
Но я не знаю как лучше сделать интеграцию с LLM. Я могу без особых проблем скормить апихе несколько файлов и сказать «используй это, чтобы сгенерировать код для следующей задачи: бла-бла-бла». Но сколько файлов ей разумно кормить? Два? Десять? Пятьдесят? Тысячу?
В остальном, я пользуюсь LLM как альтернативой гуглу, в таком стиле:
echo что такое транш |chat отвечай в контексте финтеха
chat принимает в аргументах system-сообщение, в /dev/stdin одно user-сообщение, в /dev/stdout ответ. Контекст тоже умещается в эту модель: обычный фильтр превращается в REPL. Поскольку я использую Acme, вместо «что такое транш» можно выделить мышкой любой срез в файле и нажать на “|chat”, сводя весь процесс к обычной работе с текстом.