LINUX.ORG.RU

История изменений

Исправление kaldeon, (текущая версия) :

конечно хорошо, но как там в IDE unix обстоят дела с тем, что ты говоришь LLM «отрефактори мне вот это вот так» и оно делает и приносит тебе на ревью?

Я вот думаю как это сделать у себя. Я таким, в принципе, ещё не разу не пользовался, обычно просто копирую существующий код и дальше переделываю, пока все тесты не начнут проходить.

Но я не знаю как лучше сделать интеграцию с LLM. Я могу без особых проблем скормить апихе несколько файлов и сказать «используй это, чтобы сгенерировать код для следующей задачи: бла-бла-бла». Но сколько файлов ей разумно кормить? Два? Десять? Пятьдесят? Тысячу?

В остальном, я пользуюсь LLM как альтернативой гуглу, в таком стиле:

echo что такое транш |chat отвечай в контексте финтеха

chat принимает в аргументах system-сообщение, в /dev/stdin одно user-сообщение, в /dev/stdout ответ. Контекст тоже умещается в эту модель: обычный фильтр превращается в REPL. Поскольку я использую Acme, вместо «что такое транш» можно выделить мышкой любой срез в файле и нажать на “|chat”, сводя весь процесс к обычной Select-Cut-Paste-Undo работе с текстом.

Исправление kaldeon, :

конечно хорошо, но как там в IDE unix обстоят дела с тем, что ты говоришь LLM «отрефактори мне вот это вот так» и оно делает и приносит тебе на ревью?

Я вот думаю как это сделать у себя. Я таким, в принципе, ещё не разу не пользовался, обычно просто копирую существующий код и дальше переделываю, пока все тесты не начнут проходить.

Но я не знаю как лучше сделать интеграцию с LLM. Я могу без особых проблем скормить апихе несколько файлов и сказать «используй это, чтобы сгенерировать код для следующей задачи: бла-бла-бла». Но сколько файлов ей разумно кормить? Два? Десять? Пятьдесят? Тысячу?

В остальном, я пользуюсь LLM как альтернативой гуглу, в таком стиле:

echo что такое транш |chat отвечай в контексте финтеха

chat принимает в аргументах system-сообщение, в /dev/stdin одно user-сообщение, в /dev/stdout ответ. Контекст тоже умещается в эту модель: обычный фильтр превращается в REPL. Поскольку я использую Acme, вместо «что такое транш» можно выделить мышкой любой срез в файле и нажать на “|chat”, сводя весь процесс к обычной Cut-Paste-Undo работе с текстом.

Исходная версия kaldeon, :

конечно хорошо, но как там в IDE unix обстоят дела с тем, что ты говоришь LLM «отрефактори мне вот это вот так» и оно делает и приносит тебе на ревью?

Я вот думаю как это сделать у себя. Я таким, в принципе, ещё не разу не пользовался, обычно просто копирую существующий код и дальше переделываю, пока все тесты не начнут проходить.

Но я не знаю как лучше сделать интеграцию с LLM. Я могу без особых проблем скормить апихе несколько файлов и сказать «используй это, чтобы сгенерировать код для следующей задачи: бла-бла-бла». Но сколько файлов ей разумно кормить? Два? Десять? Пятьдесят? Тысячу?

В остальном, я пользуюсь LLM как альтернативой гуглу, в таком стиле:

echo что такое транш |chat отвечай в контексте финтеха

chat принимает в аргументах system-сообщение, в /dev/stdin одно user-сообщение, в /dev/stdout ответ. Контекст тоже умещается в эту модель: обычный фильтр превращается в REPL. Поскольку я использую Acme, вместо «что такое транш» можно выделить мышкой любой срез в файле и нажать на “|chat”, сводя весь процесс к обычной работе с текстом.