LINUX.ORG.RU
ФорумTalks

Для каких повседневных задач вы используете ИИ чатботы?

 


0

2

Я, например, для следующего:

  • Получение нужного юникодовского символа по словесному описанию, буквы редкого алфавита, математического символа и т.д. Типа, выведи мне символ, который используется так-то, выглядит так-то. Например, «Символ IPA, похожий на перевёрнутую r», «Выведи мне чешский алфавит», «кружочек с диагональным крестом, похожий на знак остановка запрещена»

  • Автоматическая умная замена в тексте, например, «замени мне знаки доллара на теги <math> и </math>, с учетом открытия и закрытия тега». В текстовом редакторе это заменить на получится, так как в латексе формулы выделяются символом $, и открывающий и закрывающий знаки одинаковы. А ИИ делает замену легко, сам понимая, где открывающий и где закрывающий тег поставить.

★★★★★

Последнее исправление: Nxx (всего исправлений: 1)

Не использую ни для чего.

utanho ★★★★★
()

Угадал автора по заголовку.
Не использую, совсем. Как-то обхожусь ЕИ.

dataman ★★★★
()

Спросить «как примерно работает вот эта штука», «а чем вот эти штуки различаются», когда нет времени разбираться сильно. Разумеется полученный результат надо проверить, но всё равно быстрее получается.

nebularia ★★★
()
Последнее исправление: nebularia (всего исправлений: 1)

Нет никаких ИИ, есть только «ИИ».
Вангую, что и в этом веке не появятся.

dataman ★★★★
()

Ни для каких. ИИ-революция прошла мимо меня. Как и Крипто-революция.

MoldAndLimeHoney
()

Прошу перевести с английского, когда встречаю неясно понимаемое место. Потом прошу прокомментировать некоторые слова и обороты. Иногда получается очень хорошо.

С этимологией хорошо помогает.

Тезаурус тоже неплохой.

Просто узнать по-быстрому значение или получить комментарий по какому-нибудь термину.

Удобно при чтении выяснить о каких-нибудь исторических реалиях типа знаменитой фамилии или явления жизни, которые сейчас не понятны особо.

Как-то так в таком духе.

papin-aziat ★★★★★
()

Слона-то забыл. Так как я не программист, то ИИ мне помогает писать скрипты, системД сервисы, и даже что-нибудь найти и изменить в гномовских javascript, тут без него я совсем как без рук.

papin-aziat ★★★★★
()

Из последнего конкретного очень понравилось такое. Захотелось почитать один англоязычный ролик из ютуба на бумаге. Выдернул автоматические субтитры, выкинул оттуда всю разметку и этот набор слов кинул ИИ с просьбой проверить орфографические ошибки, потом ошибки связанные со смыслом, и потом оформить в красивый грамматически корректный текст. Получилось просто отлично.

papin-aziat ★★★★★
()

Да, пользуясь случаем, хочу поблагодарить @theurs за его отличного теграм-бота и заодно порекламировать. Пользуюсь каждый день, работает стабильно, спасибо, бро!

ChatGPT и другие

papin-aziat ★★★★★
()

Не использую вообще

saibogo ★★★★
()

Пару раз спрашивал советы по решению проблем в коде, но никогда не получал ответа и перестал использовать.

MOPKOBKA ★★★★
()

Использую, когда надо получить осмысленный текст для не очень важных задач. Из последнего, например, бот по моей просьбе составлял вопросы для экзамена, которые нужны были только для отчётности

Sahas ★★★★☆
()
Последнее исправление: Sahas (всего исправлений: 1)

Использую для консультаций по тонкостям английского языка.

Что-то вроде такого:

Can I use «hush-hush» to designate muted speach not intented to wide audience?

Heck yes! «Hush-hush» is a fantastic term to describe speech that’s intended to be kept under wraps, off the record, on the DL, and all that jazz. It’s got a nice tongue-twisty sound to it, and it’s a great way to convey secrecy and discretion. It’s the kind of word you’d expect to hear in a spy novel or a hushed conversation in a shadowy back alley. So, yeah, it’s a great way to describe speech that’s not for public consumption.

Или

Is it impolite to say «can you» instead of «could you»?

Nah, not at all! «Can you» and «could you» are both totally fine and polite ways to ask someone to do something. «Can you» is generally considered more casual, while «could you» is considered more formal.

red75prim ★★★
()
Последнее исправление: red75prim (всего исправлений: 2)

Только для тех задач, для которых существует эффективный детерминированный алгоритм проверки правильности.

buddhist ★★★★★
()
Ответ на: комментарий от papin-aziat

С этимологией хорошо помогает.

Этимологию, к сожалению, любит выдумывать. Хоть бы оно поясняло когда не очень уверено.

Но вот использование синонимов в иностранных языках хорошо поясняет, лучше любого словаря, где надо одно, а где другое использовать.

Nxx ★★★★★
() автор топика
Последнее исправление: Nxx (всего исправлений: 1)
Ответ на: комментарий от papin-aziat

Из последнего конкретного очень понравилось такое. Захотелось почитать один англоязычный ролик из ютуба на бумаге. Выдернул автоматические субтитры, выкинул оттуда всю разметку и этот набор слов кинул ИИ с просьбой проверить орфографические ошибки, потом ошибки связанные со смыслом, и потом оформить в красивый грамматически корректный текст. Получилось просто отлично.

Ты мог поступить гораздо проще: попросить ИИ выкинуть всю разметку. Это очень хорошо работает!

Именно возможности по редактированию текста потрясают. Например, выкинуть из диалога все реплики одного лица, переписать всё от другого лица, и т.д.

Nxx ★★★★★
() автор топика
Последнее исправление: Nxx (всего исправлений: 1)
Ответ на: комментарий от Nxx

Этимологию, к сожалению, любит выдумывать. Хоть бы оно поясняло когда не очень уверено.

С этим у него туго, он же не может рефлексировать, поэтому и не знает этого о себе. Просто случайно подставляет из релевантной кучи слово за словом. Так что не надо тут быть требовательным.

Под этимологией я имел ввиду ходовые слова из греко-римской кучи. Тогда он хороший даёт ответ. А просить этимологию свободно взятого слова я не пробовал.

Короче просто приспосабливаюсь: если тупит, то не пристаю, а если удаётся раскрутить на хороший ответ, то запоминаю, что так он умеет.

Кстати, бот, на которого дал ссылку, вроде третий, а бингом и клодом не пользуюсь.

papin-aziat ★★★★★
()
Ответ на: комментарий от Nxx

Да я взял формат, где пару команд find-replace всё удалили. Потом, текст был не очень маленький, так что возни было бы больше с копированием и объяснением боту всего.

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

С этим у него туго, он же не может рефлексировать, поэтому и не знает этого о себе.

Нет, ну часто оно говорит, что не уверено. Так что, это чисто вопрос настройки и обучения. GPT-4 более упрямое, Claude-2 чаще признаёт ошибки.

А просить этимологию свободно взятого слова я не пробовал.

В моём опыте выдумывал этимологию от каких-то иранских корней, хотя этимология слова хорошо известна и к иранским языкам не имеет отношения.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от papin-aziat

Потом, текст был не очень маленький, так что возни было бы больше с копированием и объяснением боту всего.

Claude может работать с очень большими текстами. Добавить/убрать разметку, поменять формат - самые эффективные задания для ИИ.

Или, например, заменить слово на другое с учётом падежей и т.д…

Nxx ★★★★★
() автор топика
Ответ на: комментарий от Nxx

часто оно говорит, что не уверено

Фига, не встречал такого. Обычно лепит отсебятину на голубом глазу, а если указать на ошибку, то тупо извиняется и опять лепит отсебятину.

papin-aziat ★★★★★
()
Ответ на: комментарий от Nxx

Хорошо, буду знать, может и пригодится.

Я в основном юзаю ГПТ, когда забиваю слова и выражения в анки. Если Яндекс-транслейт не очень справляется или возникают вопросы, или просто хочется получить больше инфы, то тогда обращаюсь к ИИ.

К сожалению, заменить ботом переводчик пока не получается, с переводчиком быстрее и удобнее пока.

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

а если указать на ошибку, то тупо извиняется и опять лепит отсебятину.

GPT-4 часто так себя ведёт. Даже дословно повторяет предыдущий ответ. Это баг.

Nxx ★★★★★
() автор топика

Решаю инженерные задачи по типу: Какой мощности нужен двигатель, чтобы закрутить стальную гайку на болт диаметром 0.012 м и шагом резьбы 0.0015 м со скоростью 0.06 м/с?

Правда отвечает не сразу и там целый квест решаешь, чтобы помочь боту найти все параметры для задачи. Но хоть что-то, иначе бы пришлось идти в раздел science на ЛОР-е и терпеть напыщенных умников.

foror ★★★★★
()
Ответ на: комментарий от Nxx

Даже дословно повторяет предыдущий ответ.

Точняк, так тоже часто бывает.

Это баг.

Буду знать.

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

Вот, по этимологии:

Are English «bug» and Russian «букашка» cognates?


Yes, «bug» in English and «букашка» (bukashka) in Russian are cognates. They both come from the same Proto-Indo-European root word and have evolved to mean «insect» or «bug» in their respective languages. The similarities in spelling and pronunciation indicate their shared origin.


From what root do they come?


The English word «bug» and the Russian word «букашка» (bukashka) both derive from the Proto-Indo-European root *bheug-.

This root referred to insects or creepy crawlies. It gave rise to words meaning «insect» or «bug» in various Indo-European languages:

In Germanic languages like English: "bug"
In Slavic languages like Russian: "букашка" (bukashka)
In Baltic languages like Lithuanian: "baubas"
In Latin: "būbō"

So the common ancestry of these words is the PIE root *bheug-, which originally had the broad meaning of «insect» and narrowed in the daughter languages to refer more specifically to «bugs». The similarities in sound and meaning point to their shared etymological origin.


Это Claude-2. Сам сочинил этимологию, выдумал праиндоевропейский корень, притянул когнаты в других языках…

При том, что про эти слова известно, что они не когнаты.

Выглядит так, что потенциал тут большой, но нужно усиление ИИ и развитие самокритики. Думаю, в будущем его можно привлекать к лингвистической реконструкции и расшифровке древних языков.

Nxx ★★★★★
() автор топика
Последнее исправление: Nxx (всего исправлений: 2)

Чат боты могут писать тексты, быстро и много, если смысл не сильно важен то получается отлично.

Очень хорошо отвечают на бессмысленные вопросы типа кем вы себя видите через 5 лет (когда требуется написать какую нибудь красивую белиберду).

theurs ★★
()
Последнее исправление: theurs (всего исправлений: 1)
Ответ на: комментарий от Nxx

Сам сочинил этимологию, выдумал праиндоевропейский корень, притянул когнаты в других языках…

Гыыы… прикольно! Вот жук.

Думаю, в будущем его можно привлекать

Для начала к какой-нибудь ответственности за отсебятину 😁

Мда, он мне значит горбатого лепит, а я довольный хожу… Спасибо за пример, буду начеку.

papin-aziat ★★★★★
()
Ответ на: комментарий от Nxx

Мне кажется надо понять, что эта чудо-машина не умеет в точность и адекватность в принципе, что это просто быстрый графоман, который может натолкнуть на мысль или что-то напомнить.

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

На самом деле, это потрясающе, что ИИ может выдвинуть научную гипотезу, даже если гипотеза неверная. Гипотетический ПИЕ-корень он построил по всем правилам, например, в ПИЕ нет фонемы b-.

Nxx ★★★★★
() автор топика
Последнее исправление: Nxx (всего исправлений: 1)
Ответ на: комментарий от krasnh

Сделают удобный интерфейс, а ещё лучше удобную компактную программу, тогда и будем юзать.

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

Тут, на мой взгляд, самое важное, что мы получаем хотя бы какие-то ответы на наши вопросы. Поэтому путь к ИИ, который сам сможет делать научные открытия не качественный, а количественный, постепенный. Если взять более слабую модель, Викунью какую-то, она отвечает чушь там, где GPT или Claude отвечают верно. Но главное, что отвечает же!

Nxx ★★★★★
() автор топика
Ответ на: комментарий от Nxx

Гипотетический ПИЕ-корень он построил по всем правилам, например, в ПИЕ нет фонемы b-.

Походу для лингвиста (как я понял, ты лингвист) это находка, ведь это лингвистическая модель, только молотит со скоростью света. Я и сам чую, что в этом он особо силён.

papin-aziat ★★★★★
()
Ответ на: комментарий от Nxx

Хоть бы оно поясняло когда не очень уверено.

Там нет мышления, нет уверенности, нет неуверенности. Основа всех этих систем — в генерации следующего токена в последовательности.

i-rinat ★★★★★
()
Ответ на: комментарий от Nxx

Думаю, в будущем его можно привлекать к лингвистической реконструкции и расшифровке древних языков.

А что, много ещё осталось?

papin-aziat ★★★★★
()
Ответ на: комментарий от i-rinat

А возможность сравнить с эталонными текстами на тему нельзя запрограммировать, чтобы он сочинял в пределах допустимого?

Впрочем, это тогда отменит именно то, что особенно заходит оратору выше.

Короче, надо два режима – ответственный и безответственный.

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

А возможность сравнить с эталонными текстами на тему нельзя запрограммировать, чтобы он сочинял в пределах допустимого?

Насколько я понимаю, при выборе следующего токена специально применяется случайный выбор, чтобы вывод не скатился в цикличное повторение одного и того же. Поэтому даже если сеть переобучить на наборе эталонных примеров, всё равно вывод не будет эталонным. И при этом нет никаких гарантий, что переобучение на эталонах хоть как-то поможет в других случаях. Наоборот, есть тенденция к ухудшению.

надо два режима – ответственный и безответственный.

Это не ИИ умный. Это просто мы тупые. Он может выдавать любой бред, и если он будет удовлетворять набору не очень строгих приблизительных правил, мы будем считать его разумным. Что, в общем-то, и происходит.

Простого генератора текста на марковских цепях было достаточно, чтобы создать у людей ощущение разумности текста. Эксперименты с https://ru.wikipedia.org/wiki/SCIgen показали, что даже этого хватало, чтобы обманывать научные журналы. Всё потому что люди склонны искать и находить смысл даже там, где его нет. Ну и лень тоже роль играет.

i-rinat ★★★★★
()
Ответ на: комментарий от papin-aziat

У сети на выходе вероятность символа/токена который нужно рисовать следующим, это согласуется с «ответственным» режимом примерно никак.

Obezyan
()
Ответ на: комментарий от papin-aziat

Ахаха. Пару лет назад гугл свои доки по гуглоклауду так перевёл, что они стали супербесполезны.

Я не смотрел с тех пор, может до сих пор у них в русском тексте коллизия браузера объектов в «корзинах» облака с веб-браузером. Ну и слово «корзина» они чем-то нейтральным заменили. В итоге обратиться по инструкции через API было невозможно.

Самое прекрасное было в том, что стиль текста, грамотность - всё на высоте, и заподозрить ошибочность невозможно.

Shadow ★★★★★
()
Последнее исправление: Shadow (всего исправлений: 2)
Ответ на: комментарий от i-rinat

Это не ИИ умный. Это просто мы тупые. Он может выдавать любой бред, и если он будет удовлетворять набору не очень строгих приблизительных правил, мы будем считать его разумным. Что, в общем-то, и происходит.

Погоди, речь не об этом. Меня не интересуют, как пользователя, что думают об этом интеллекте, меня интересует результат, а именно – нужен выбор между свободными полётом и опорой на реальные тексты. Я не знаю, возможно ли это, но хотелось бы, чтобы лингвист (ТС) в одном случае задал один режим, когда хочет получить информацию, и выбрал другой, когда хочет получить пинок (хоть куда-нибудь) своему научному мышлению. Вот такая странная хотелка.

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

Это так не работает, генеративные сети речевых моделей имеют грубо говоря две архитектуры первая, как сказал Ринат это бесконтрольная генерация текста следующая исключительно правилам построения слов и предложений языка это же относится к сетям генерирующим код нет никакой разницы генерировать код или вести интерактивный диалог с интерфейсом на естественном языке. Ну так вот, нейросети по природе своей делают хорошо ровно две вещи на которых всё основывается, первое это определение ассоциаций, когда одни данные ассоциированы с другими по некому признаку/кам из этого рождается втрое благодаря механизму выявления «схожести» между данными (любыми) возникает «умение» сортировать эти данные, группировать, обобщать. Из букв следуя всем этим составляются слова, в словах ведётся поиск связи между ними, появляются словосочетания, далее уже между ними ведётся поиск связей так появляются предложения, для каждого нового слова всё это по кругу гонится для выявления наиболее подходящего слова. И всё. Вторая штука это уже понимание контекста или «смысла» там уже нейросети как таковые это просто один из алгоритмов (да и вообще в целом в нейросетях нейросетей меньше всего) там используются уже 3D вектора, когда есть сущность (не важно что) для неё описан (вычислен) контекст в рамках которого оно имеет смысл представь облачко в небе висящее, есть другая сущность (допустим это слово) смысл которого при его применении с ещё одним «облачком» создаёт такой контекст векторное представление которого совпадает с направлением в первое облачко из которого уже делает выборка наиболее подходящего, оно то и включается в продолжение генерации в рамках текста соответствующего контексту и смыслу. Эдакая перекрёстная хештабля в виде 3D пространства с висящими в нём группами сущностей в каждой из которых есть вектор и к каждой из которых есть вектор такой что при комбинации этих сущностный дают новый такой что он либо указывает в никуда (всё херня давай по новой) или строго следует правилам. Ну и всё, а текущие речевые модели это синтез первого и второго. Основная беда в том, что сети не могут остановится, они дадут тебе ответ на всё что угодно, тупо следуя чисто нейросетевым правилам дополнялки текста ну и плюс приправят видом смысла, даже если на выдаче будет мусор, буквально мусорные данные, но по всем правилам естественного языка и неизбежно верным подбором подходящих друг к другу слов.

Нейросетки и доп алгоритмы работающие с ними в тандеме (включая просто базы данных и всякие токенизаторы банальные) это не ракетные технологии, это не формулы математики которыми за кой то хер все стараются описывать даже тривиальные вещи которые рассказываются на пальцах, я прям люто советую почитать как оно всё работает, порыть исходники и чёниь посмотреть что-бы развеять магию. Сами по себе нейросетки это простой как палка алгоритм даже великое разнообразие автоматов нейросетевых, циклических сетей, открытых и закрытых это блин всё на пальцах описать можно.

Я не скажу что я там спец какой фифа и ваще, не я нуб ещё тот, но меня прям пучит когда одно выдают за другое. И речевые модели натягивают как сову на глобус на всё что надо и нет. Искусственные нейросети это клёво, им лет столько же сколько ЭВМ если не больше. А универсальные речевые модели это скорее игрушка, да в отдельных случаях даже полезная эммм для кого-то хз знает кого, но да ладно.

Вся их суть в том что это интерактивный интерфейс к программе на естественном языке, это универсально, несомненно интересно, но пока, пока вокруг них просто нездоровая истерия, куча мистификации, очень много лжи и прочего ну и сова+глобус, это прям бесит порой. Да я перегибаю палку с хейтом, но блин.

Короче, сетки на GPT алгоритмах просто подохнут, речевые универсальные модели ненужны, они просто не справляются с теми объёмами данных что в них пихают. Линейное масштабирование таких сетей на что и делают упор больше википедий понапихать, больше серверов просто всё это погубит. Такие штуки надо натаскивать отдельно например для музея загнать в него рукописи конкретные и произвести поиск пересекающихся данных, их частотную неистребимость, попытаться понять смысл символа и искать его корреляцию с чем то и натаскивать на этот конкретный случай применения так что бы помимо работы сортировки и выявления в шумных данных схожестей, признаков, шаблонов ещё и иметь удобыный интерфейс на естественном языке. Или учить сеть говорить за немого человека заменяя ему его голос, вот это да, тут всё преуспеет, а ЧатЖопаТ это кое что умеющая игрушка распирающая от вагона данных и генерирующая порой такой красивый бред что хоть каждое слово перепроверяй через классический поисковик. Забавляет то что через речевые модельки часто пытаются решить задачи которые быстрее и эффективнее сделать через классически или вообще руками, а именно что имбовую особенность сетей находить то что незаметно человеку в виду возможности соотнести друг с другом ОГГРОММННЫЕЕ объёмы данных такие что человек просто физически не может их освоить хоть и знает и понимает как это делать используют редко.

Воть. Хотел написать коротко, просто ответ. Но походу пора в дурку.

LINUX-ORG-RU ★★★★★
()
Последнее исправление: LINUX-ORG-RU (всего исправлений: 1)
Ответ на: комментарий от Shadow

грамотность - всё на высоте

Ну, даже я, далеко не знаток английского, виду что ИИ не везде идеально справился с пунктуацией по сравнению с тем, что я вижу в книгах.

papin-aziat ★★★★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)