LINUX.ORG.RU

История изменений

Исправление Jameson, (текущая версия) :

Любая «экспертная» система обучающаяся на данных из интернет потенциально опасна. Лично мне показался весьма наглядным такой пример (извиняюсь что не про ChatGPT, а общие слова, но и про ChatGPT тоже скажу).

Если спросить Яндекс или Гугль «где впервые начали изготавливать стеклянную посуду» ответ будет «в Древнем Египте», и он будет в первых строках выдачи. Меж тем если спросить мнение профессиональных историков-египтологов (это те кто в научных журналах публикуются и имеют цитируемые монографии, а не те которые каналы про «Тайны Египетских Пирамид» на ютубе ведут), окажется что они в этом далеко не уверены. Ответа на этот вопрос нет, но точно не «в Древнем Египте». Так откуда берётся такой ответ? Он является результатом обобщённого коллективного мнения, которое отнюдь не становится истиной автоматически, только от того что оно коллективное и его выдал «вумный» Гуголь или Яндекс. И это только один ответ на один вопрос.

Опасности систем типа ChatGPT в том же самом. Поскольку этот ИИ обучается на обобщённых коллективных базах есть вопрос доверия к суждениям и мнениям которые эта сеть высказывает. По сути его быть не должно, доверия, так как ИИ так же подвержен коллективным когнитивным искажениям как и люди. Но люди будут воспринимать ответы ИИ как экспертные и считать ИИ наделённым глубоким умом, ведь он «весь интернет прочитал».

Исходная версия Jameson, :

Любая «экспертная» система обучающаяся на данных из интернет потенциально опасна. Лично мне показался весьма наглядным такой пример (извиняюсь что не про ChatGPT, а общие слова, но и про ChatGPT тоже скажу).

Если спросить Яндекс или Гугль «где впервые начали изготавливать стеклянную посуду» ответ будет «в Древнем Египте», и он будет в первых строках выдачи. Меж тем если спросить мнение историков-египтологов, окажется что они в этом далеко не уверены. Ответа на этот вопрос нет, но точно не «в Древнем Египте». Так откуда берётся такой ответ? Он является результатом обобщённого коллективного мнения, которое отнюдь не становится истиной автоматически, только от того что оно коллективное и его выдал «вумный» Гуголь или Яндекс. И это только один ответ на один вопрос.

Опасности систем типа ChatGPT в том же самом. Поскольку этот ИИ обучается на обобщённых коллективных базах есть вопрос доверия к суждениям и мнениям которые эта сеть высказывает. По сути его быть не должно, доверия, так как ИИ так же подвержен коллективным когнитивным искажениям как и люди. Но люди будут воспринимать ответы ИИ как экспертные и считать ИИ наделённым глубоким умом, ведь он «весь интернет прочитал».