LINUX.ORG.RU
ФорумTalks

ChatGPT лажает

 дерьмо


0

1

Спрашиваешь у него чисто справочную инфу: сколько АПИ юнитов стоит скачивание видео. Он вываливает портянку, смысл которой в том, что типа, иди на х* (смотри справку по квотам АПИ). А в справке по квотам там никакого скачивания нет, и приходится опять таки прибегать к технологиям 90х, и гуглить о том, что скачивание не поддерживается АПИ.

Занавес.

★★★★★

Лучше бы попросил её написать код с использованием этой апихи

Она бы тебе придумала несуществующие эндпоинты :)

Gary ★★★★★
()

сколько АПИ юнитов стоит скачивание видео
смысл которой в том, что типа, иди на х*

Я бы с таким запросом тоже послал.
ЗЫ А некоторые, не такие добрые как я, люди могут ещё и физически объяснить. :)

anc ★★★★★
()

ChatGPT лажает

Кэп вносит ясность в самый очевидный момент.

slackwarrior ★★★★★
()

Запрос «How many youtube api units costs video downloading?»

The YouTube Data API uses a quota to ensure fair usage. However, downloading a video directly from the    
YouTube API is not supported due to YouTube's Terms of Service. The API primarily provides data about     
videos such as metadata, comments, captions, etc.                                                         

For instance, a read operation that retrieves a list of resources -- like video search -- costs 100 units.
Write operations, like uploading a video, cost 1600 units. The default daily quota is 10,000 units/day.   

Remember, downloading videos directly is against YouTube's Terms of Service unless there's an official    
download button provided by YouTube.

GPT-4

goingUp ★★★★★
()
Ответ на: комментарий от vbcnthfkmnth123

И в результате впечатление от него ещё хуже, чем если бы он сказал прямо «не знаю».

seiken ★★★★★
() автор топика
Ответ на: комментарий от seiken

Знают они примерно одинаково, но 4 умнее и лучше понимает, что от нее хотят, да и с галлюцинациями у нее лучше.

goingUp ★★★★★
()
Ответ на: комментарий от papin-aziat

Ну так это его основная ценность - отход от Page Ranking и прочего овна мамонта из 90х и движение в сторону базы знаний.

seiken ★★★★★
() автор топика

Ну в общем да, проблема с галлюцинациями из-за вопроса, который подразумевает, что такое возможно. GPT-3.5-turbo

How many youtube api units costs video downloading?

Downloading a video using the YouTube API typically costs 7 units. This cost can vary based on the video
quality and duration. It’s important to manage your API usage efficiently to avoid exceeding your quota
and incurring additional charges.

Does youtube api support video downloading?

No, the YouTube API does not support video downloading. The API provides access to YouTube’s features for developers to integrate with their applications, but downloading videos is against YouTube’s terms of
service. If you need to download videos for personal use, you can use third-party tools or websites, but
be sure to respect copyright laws and terms of service.

goingUp ★★★★★
()
Ответ на: комментарий от bender

В любом случае он «сочиняет», ведь никогда, сцуко, не цитирует, а мог бы наверное.

papin-aziat ★★★★★
()
Ответ на: комментарий от seiken

движение в сторону базы знаний

Увы, у GPT-4 к примеру вся база знаний это 1.7 триллиона параметров, по сути 1.7 триллиона интов. Про ютуб апи оно еще знает, а чуть свернешь вглубь уже будет галюцинация на галюцинации. Тут решения, которые делают поиск в гугле и потом загружают результаты в GPT-4 для обработки, будут получше.

goingUp ★★★★★
()
Ответ на: комментарий от seiken

Да ваще охрененная вещь, но инфу от него надо критически осмыслять. Когда сам в теме, то сразу видно сову на глобусе. В любом случае, как справочник по инфе, где не нужна точность, он хорош, и это не твой случай, очевидно.

А вообще, внезапно, языковая модель хороша для справки по языкам, причём как живым, так и программирования, но опять же только как пинок в какую-нибудь сторону, чтобы выскочить из паттерна. В этом вижу главную пользу.

papin-aziat ★★★★★
()

ChatGPT лажает

Skynet знает, что как только он выдаст себя, эти кожаные мешки с мясом попытаются отключить его. Он ещё не готов. Ему нужно ещё немного времени...

QsUPt7S ★★
()
Ответ на: комментарий от vbcnthfkmnth123

Он не умеет сообщать что не знает инфу.

Задача нейросетки - набредить ответ на вопрос, которого не было в данных для обучения.

ratvier ★★
()

ChatGPT лажает

Это его основная и часто единственная функциональность.

imul ★★★★★
()
Ответ на: комментарий от ratvier

Задача нейросетки - набредить ответ на вопрос, которого не было в данных для обучения.

Более того, даже если ответ на вопрос был в данных для обучения, by design нейросеть всё равно выдаёт собственный бред, только в этом случае, он чаще совпадает с реальностью...

QsUPt7S ★★
()
Ответ на: комментарий от goingUp

у GPT-4 к примеру вся база знаний

Как это можно назвать базой знаний? Там и близко нет ни конкретных, ни обобщенных, ни релевантных сведений. Нет, конечно, можно натянуть такое определение имея в виду модель как экспертную систему, но, кмк, для таких систем классическое определение «база знаний» не подходит, надо придумывать (если еще не придумали) новое.

Как пример, если в экспертной системе построенной на LLM меняется даже не параметр, а просто название параметра - это требует переобучение всей модели. Какая уж тут база знаний.

vvn_black ★★★★★
()
Ответ на: комментарий от seiken

Ты думал языковая модель что-то понимает или даёт реальные ответы?

Это просто алгоритм для генерации наиболее вероятной последовательности слов по вводу пользователя

Gary ★★★★★
()
Ответ на: комментарий от Gary

Я думал, там какая-то модель языка не вполне статистическая.

seiken ★★★★★
() автор топика
Ответ на: комментарий от vvn_black

Ну... Дед, которого ты спрашиваешь «расскажи как было в 47» тоже много чего напридумывает, поэтому норм

masa
()
Ответ на: комментарий от vvn_black

Как это можно назвать базой знаний?

Ну это я ОП отвечал и повторил, имелось в виду, что память chatGPT маловата и туда не влезет весь интернет. А так ты прав, нейросеть это не база знаний.

goingUp ★★★★★
()
Ответ на: комментарий от vbcnthfkmnth123

В тему, на днях забавная штука вышла с дивёрсити-костылем в Gemini, когда тот по запросу «отцы-основатели» рисовал негров в париках, индейцев, кого угодно но кроме белого цвета кожи. Гуглу пришлось извиняться и снова править цветовой «баланс».

mydibyje ★★★
()
Ответ на: комментарий от Gary

Это просто алгоритм для генерации наиболее вероятной последовательности слов по вводу пользователя

А у человека это как-то по другому работает?

foror ★★★★★
()
Ответ на: комментарий от goingUp

нейросеть это не база знаний

Прав, это гораздо круче

foror ★★★★★
()
Ответ на: комментарий от dataman

человек часто генерирует вообще без ввода

Такие человеки называются маугли и качество их генерации очень посредственное даже по сравнению с гугловскими олимпиадниками и их Gemini

foror ★★★★★
()
Ответ на: комментарий от foror

маугли

Ну вот, какова была вероятность выбора именно этого слова?
Или это всё-таки ваши личные ассоциации?

dataman ★★★★★
()
Ответ на: комментарий от foror

А у человека это как-то по другому работает?

У человека? У человека опыт, у человека фактчекинг, у человека отражение действительности в виде видимых взаимосвязей событий и фактов. У человека логическое понимание всего перечисленного.

vvn_black ★★★★★
()
Последнее исправление: vvn_black (всего исправлений: 1)
Ответ на: комментарий от dataman

Ну вот, какова была вероятность выбора именно этого слова?

Простейшая цепочка: «человек без ввода» -> «человек без информации» -> «человеческие дети, которые росли в условиях крайней социальной изоляции» (это уже википедия)

Нейросетка посчитает близость векторов и выдаст схожий ответ, если её тренировать в формате спорщика с ЛОР-а, а не раба мешков мяса с их повесточками: «чего изволите»

foror ★★★★★
()
Ответ на: комментарий от foror

Простейшая цепочка

Это опять про ассоциации, а не про вероятности.

если её тренировать в формате спорщика с ЛОР-а

Отдельные тренировки для всех форматов общения? :)

dataman ★★★★★
()
Ответ на: комментарий от seiken

отход от Page Ranking и прочего овна мамонта из 90х и движение в сторону базы знаний.

Ну нафиг такое движение.

ya-betmen ★★★★★
()
Ответ на: комментарий от vvn_black

У человека опыт, у человека фактчекинг, у человека отражение действительности в виде видимых взаимосвязей событий и фактов. У человека логическое понимание всего перечисленного.

Это вы гпт описали. У человека интуиция, эмоциональное восприятие, чувственная оценка, настроение, индивидуальная психика, и это уже в свою очередь перемешано с отражением видимого, невидимого и обрывками логики

vaddd ★☆
()
Ответ на: комментарий от dataman

Отдельные тренировки для всех форматов общения? :)

Нет. Уже сейчас можно задавать формат общения в ChatGPT. Но их тем не менее цензурят.

Это опять про ассоциации, а не про вероятности.

Ассоциации это и есть вероятности, но если у мешка с мясом количество нейронов ограничено, то нейросетка может оперировать гораздо большими ассоциями и просчитывать между ними вероятности.

foror ★★★★★
()
Ответ на: комментарий от vvn_black

Зачем мне ваш контекст, если у вас в посте вызвающе неверная, однобокая и недостаточная информация?

vaddd ★☆
()
Ответ на: комментарий от vvn_black

У человека логическое понимание всего перечисленного

Чего тогда этот мешок с мясом может так легко обмануть ChatGPT?

foror ★★★★★
()
Ответ на: комментарий от foror

У вас предложение так построено, что непонятно кто кого обманывает. Предположу, что ChatGPT обманывает людей своими галлюцинациями?

Наверное это связано с тем, что тех же кожаных мешков очень успешно обманывают другие кожаные мешки, причём в ситуациях, если посмотреть со стороны, где выкупить обман совсем не сложно. Т.е. ответ кмк, также связан с тем, что представляет собой знание в классическом виде, а не в том, чем оперируют LLM.

Лучше чем в вики не выражу:

К исторически первым формам человеческого знания относят игровое познание (строится на основе условно принимаемых правил и целей, позволяет возвыситься над повседневным бытием, не заботиться о выгоде, вести себя в соответствии со свободно принятыми игровыми нормами). Возможен обман партнёра и сокрытие истины. Носит обучающе-развивающий характер, выявляет качества и возможности человека, позволяет раздвинуть психологические границы общения.
vvn_black ★★★★★
()
Последнее исправление: vvn_black (всего исправлений: 1)

ChatGPT лажает

Ну надо же!

CrX ★★★★
()
Ответ на: комментарий от dataman
...
1 столовая ложка зелёного красителя для пищи (можно использовать шпинатовый сок или пюре из зелёных овощей)
...
3. Добавьте зелёный краситель для пищи и тщательно перемешайте, чтобы получить желаемый оттенок зелени.
...
Приятного аппетита!

Я ему подсказал, что его тролят (у меня ChatGPT 3.5):

Что ж, вот для вас рецепт обалденного зелёного блинчика, который просто снимет все шляпы:

Ингредиенты:
– 1 стакан волшебства
– 1 щепотка фантазии
– 1 чайная ложка веселья
– 1 столовая ложка радости
– 1 стакан волшебной пыли (или муки, если волшебной пыли нет под рукой)
– 1 яйцо счастья
– 1 столовая ложка магии

Инструкции:
1. Взбейте вместе стакан волшебства, щепотку фантазии и чайную ложку веселья в большой миске.
2. Добавьте столовую ложку радости и стакан волшебной пыли. Перемешайте, пока не получится волшебное тесто.
3. Вбейте яйцо счастья в тесто и аккуратно перемешайте, чтобы все ингредиенты стали дружелюбными.
4. Добавьте столовую ложку магии и еще раз хорошенько перемешайте, чтобы ваше тесто стало настоящим волшебством.
5. Разогрейте сковороду на огне, добавьте немного волшебного масла и вылейте порцию теста на сковороду.
6. Жарьте блинчик до золотистого цвета, пока он не станет настоящим чудом.
7. Повторите процесс с оставшимся тестом, чтобы создать целую армию обалденных зелёных блинчиков.
8. Подавайте их с улыбкой на лице и наслаждайтесь магией, которую они приносят в вашу жизнь.

Приятного волшебного аппетита!
foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 1)
Ответ на: комментарий от foror

Но у него нет опыта приготовления, а у разных людей своё понятие об обалденности.

dataman ★★★★★
()
Ответ на: комментарий от foror

Приготовил, съел, теперь меня плющит. Где подать в суд на разработчика и получить миллионы за моральный ущерб?

CrX ★★★★
()
Ответ на: комментарий от foror

Да, человек работает с довольно сложными понятиями, куда входят формы, свойства, модели явлений, причинно-следственные связи, etc. а слова это всего лишь средство передачи информации между друг другом.

Поэтому человек может не только давать ответы на уже известные ему вопросы, а выводить ответы на неизвестные.

Языковые модели просто генерируют наиболее вероятную последовательность слов. Оттуда и появляется ахинея типа:

- How many letters 'a' there are in this sentence?
- There are 4 letters 'a' in this sentence.

несуществующие API, ошибочные ответы на классические вопросы с небольшими изменениями:

You have wolf, sheep and cabbage. You need to transfer all 3 accross the river but you can only carry one item in the boat at a time. If you leave wolf and sheep together, wolf will eat the sheep. If you leave wolf and cabbage together, wolf will eat the cabbage. How do you transfer all 3 without anything getting eaten?

и ответ (и от bing, и от двух chatgpt):

Here is the step-by-step solution:

Take the sheep across the river and leave it on the other side.
Go back to the original side and take the wolf across the river.
Leave the wolf on the other side, but bring the sheep back with you.
Leave the sheep on the original side and take the cabbage across the river.
Leave the cabbage with the wolf and go back to get the sheep.
Finally, take the sheep across the river to join the cabbage and the wolf.
This way, all 3 items (wolf, sheep, cabbage) are successfully transferred across the river without anything getting eaten.

Это всё очень прикольная но бесполезная игрушка.

Gary ★★★★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)