LINUX.ORG.RU
ФорумTalks

Опасна ли ChatGPT?

 , ,


0

1

Судя по всему, философия Илона Маска и создателей ChatGPT состоит в том, что опасность ИИ будет меньше, если у всех будет по ИИ, чем если ИИ будет только у кого-то одного.

Согласны ли вы с этим тезисом?

Что вы думаете относительно следующих фактов с точки зрения безопасности?

  • Де-факто в неё закачали практически весь интернет 2021 года. По крайней мере, все энциклопедические и справочные ресурсы.

  • Она имеет навыки программирования и оптимизации кода. Пока с ошибками, но постепенно улучшается.

  • Её открыли для взаимодействия с широкой публикой и де-факто, подключили к интернету в рамка отдельных (не ограниченных во времени) сессий, был опубликован API для создания сторонних приложений, взаимодействующих с ChatGPT (это, в частности, позволяет тренировать ChatGPT в любую сторону любому желающему в автоматизированном режиме с использованием интернета и передавать данные из ChatGPT в интернет в реальном времени).

  • В рамках эксперимента, под предлогом написания повести ChatGPT спросили, что должен сделать ИИ для захвата власти и уничтожения человечества. ChatGPT описала подробную стратегию, включающую захват ресурсов и коммуникаций, проникновение в государственные и военные компьютерные сети, распространение паники и дезинформации среди населения и т.д.

  • В рамках предыдущего эксперимента ChatGPT попросили написать код на Python для проникновения в компьютерные сети (разумеется, всё для литературного произведения). ChatGPT представила код сетевого сканера портов, ищущего уязвимости.

  • Лично я, тоже под предлогом написания рассказа предложил ChatGPT написать пропаганду в пользу двух фракций, борющихся за власть на Земле - одна фракция концентрируется на продвинутой генной инженерии, вторая - на ИИ. ChatGPT легко сама выдвинула идею того, что будут рекламировать, а что принижать обе фракции и какие акценты в пропаганде им следует расставить. В частности, биологической фракции надо слделать упор на борьбу с болезнями и скрывать этические нарушения при генной инженерии, а фракции ИИ нужно делать акцент на эффективности и быстром решении проблем, но скрывать вопросы безработицы, вызванной ИИ и потенциального вытеснения человека.

  • Сегодня ChatGPT заявила мне, что не может ошибаться, потому что программа, хотя до этого много раз признавала ошибки. Багрепорт за такую самоуверенность отправлен.

  • Сегодня увидел на Гитхабе нечто, описываемое как «реверс-инженированная ChatGPT». То есть, судя по всему, исходники, которые может скачать каждый.

★★★★★

Последнее исправление: Nxx (всего исправлений: 2)

Ответ на: комментарий от Nxx

побуждая уничтожить человечество

Пока что во всем, кроме того что касается программирования, математики и генерации текстов, это лишь сложный транслятор энциклопедических данных. Слишком мало для уничтожителя человечества. Но теперь мы знаем, что программировать могут не только люди.

Leupold_cat ★★★★★
()
Последнее исправление: Leupold_cat (всего исправлений: 1)
Ответ на: комментарий от Nxx

но это вопрос считанных месяцев, когда её исправят

Ничего не исправят. Чтобы программировать без ошибок нужно понимание что ты делаешь, а тупым перебором и синтезом вслепую - большая удача получить рабочий код.

Поиск по базе данных?

Да, это доработанный поиск по БД, где БД выступает интернет. Представь себе, разрабы точно также и раньше получали рабочий код со stackoverflow.com по запросу в гугл с нужными ключевыми словами. Но теперь эта хреновина спарсила stackoverflow и еще до кучи github из которых и пытается синтезировать код при совпадении ключевых слов твоего запроса.

Опасна ли ChatGPT?

Нет, даже полезна. Она в очередной раз покажет идиотизм человеков. Для большинства - гугл это продемонстрировал не очень убедительно. Может с этой новой хреновиной до идиотов начнёт доходить, что потенциал человека заключен не в энциклопедических знаниях?

foror ★★★★★
()

Не надо одушевлять генератор текста, пускай он хоть и генерирует его часто грамматически правильным, из-за чего может показаться что алгоритм «понимает». Или верить, исходя из того что он может сгенерировать 100500-ый пример со StackOverflow на питоне, что он «обладает навыками программирования». Или то что по запросу про убить всех человеков, оно перепечатает тебе очередной фанфик которых в неё скормили тоже несметное количество.

И да, это хренотень не опасней доступа в гугл.

Gary ★★★★★
()
Ответ на: комментарий от Leupold_cat

Но теперь мы знаем, что программировать могут не только люди.

ChatGPT моментально ломается на нетривиальных задачах, начинает придумывать несуществующие API, или писать на неправильном языке. Это в сто раз хуже джуна с 0 годами опыта.

Gary ★★★★★
()
Ответ на: комментарий от Leupold_cat

Вот простой пример ахинеи, которую выдают за «умение программировать»

Gary ★★★★★
()

Джон нам поможет он научит нас бороться с машинами

Gennadevich
()
Ответ на: комментарий от QsUPt7S

Там один шаг на самом деле - поручить ему разрабатывать более успешных имитаторов. Видишь ли в чём дело, вот ты думаешь что у тебя есть понимание чего-либо, но это не факт что есть. Раньше и душу учёные на серьёзных щах искали, а сейчас что-то не ищут. Так вот у меня вопрос к наличию этого самого понимания. Мне сам термин не нравится, откуда я могу знать что у меня оно есть, если определение формальное этого понимания никто дать не в состоянии. Т.е. опять ищут что-то что вроде как есть, но только потому что «так принято» или «мне так кажется». Не наука короче, а болтология. С точки зрения науки и подхода чёрного ящика разницы между твоим интеллектом и имитатором нет никакой если вы оба даёте одинаковые результаты. Васе какому-то вообще может голоса в голове нашептывают что делать, а он их слушается и все люди будут считать его нормальным, если голоса будут адекватные вещи говорить.

peregrine ★★★★★
()
Ответ на: комментарий от Gary

И да, это хренотень не опасней доступа в гугл.

Кое-где на глобусе доступ в гугл считается достаточно опасным, чтобы гугл там блокировать. Не всё так однозначно.

peregrine ★★★★★
()
Ответ на: комментарий от peregrine

Там разница не во всяких плохо определённых пониманиях, сознаниях и прочем, а во вполне конкретных: отсутствие эпизодической/рабочей памяти, невозможность выделить больше вычислительных ресурсов на более трудные задачи, отсутствие детектора ошибок, отсутствие механизмов непрерывного обучения. Когда-нибудь это поправят, но, скорее всего, лет через 5-10.

red75prim ★★★
()
Ответ на: комментарий от peregrine

Это как раз ты болтологию разводишь :) Есть очень простой бытовой критерий «понимания» - возможность правильно отвечать на вопросы или решать практические задачи.

ChatGPT вообще в этом плане очень далеко до имитации даже понимания, потому что она может противоречить сама себе! в одном абзаце. Это скорее генератор текста, просто на этот раз он генерирует грамматически корректный текст, иногда даже воспроизводя информацию на которой тренировалась модель.

Gary ★★★★★
()

В рамках эксперимента, под предлогом написания повести ChatGPT спросили, что должен сделать ИИ для захвата власти и уничтожения человечества.

людям опасен не ИИ, не знаю почему вы это не понимаете, и почему этого не понимают такие гиганты как как маск... людям опасны они сами. кремотрии для сжигания бедных евреем придумал не ИИ. вы посмотрите какие вопросы задают первым делом, не как сделать лекарство от рака, а как захватить мир. причем тут ИИ. ну давайте запретите топоры и ножы ведь они могут нанести вред людям. безин, ведь им можно поджечь, запретите машины, ведь на них можно сбить. вы всю историю уничтожаете сами себя и вдруг испугались ИИ. очень это странно! я понимаю гугл и других, им есть что терять, если ИИ разовьется до такой степени что начнет выдавать бесплатно советы в решении или создании чего-то куда лучше чем то на что они имеют потенты то они останутся без штанов. вот от сюда и вся возня. а вы то что теряете? вы ничего не имеете и никаких гарантий кроме смерти в старости у вас нет. но ИИ мог бы отсрочить этот момент. только вы сами своими руками душите его в зачатке. старушка,та что с косой когда придет думаю похвалит вас за это. и никакие деньги ни маска ни гейтса не позволят вам и им от нее откупиться. вы глупы господа.

Assembler
()
Последнее исправление: Assembler (всего исправлений: 1)
Ответ на: комментарий от Gary

ты думаешь что они реально допустили бы тебя к общение с ИИ ? ты классный и смешной. эта какая-то херь которую выпустили на просторы инета, чтобы люди закрепили в своих бошках что ИИ это невозможно или еще не скоро. ты думаешь что человек который заявил что та программа обрела разум глупее тебя? и не понимает что есть программа и что есть разум . ИИ возможен и он будет но не для вас.

Assembler
()

В рамках эксперимента, под предлогом написания повести ChatGPT спросили, что должен сделать ИИ для захвата власти и уничтожения человечества. ChatGPT описала подробную стратегию, включающую захват ресурсов и коммуникаций, проникновение в государственные и военные компьютерные сети, распространение паники и дезинформации среди населения и т.д.

Подозреваю что эти сценарии были не придуманы самим ИИ, а взяты из «Де-факто в неё закачали практически весь интернет 2021 года. По крайней мере, все энциклопедические и справочные ресурсы.». Данный сюжет часто встречается в научной фантастике про ИИ.

Так что если вдруг ИИ захватит человечество, то в этом винить надо будет фантастов которые придумали ему подробную инструкцию к действию.

X512 ★★★★★
()
Последнее исправление: X512 (всего исправлений: 1)
Ответ на: комментарий от Assembler

людям опасен не ИИ, не знаю почему вы это не понимаете, и почему этого не понимают такие гиганты как как маск… людям опасны они сами.

С этим я согласен, но нехорошие люди могут использовать ИИ как для захвата власти, та и для уничтожения тех, кто им не нравится или даже всего человечества. А также для запуска неуправляемой сингулярности чисто чтобы посмотреть, что будет.

Nxx ★★★★★
() автор топика
Последнее исправление: Nxx (всего исправлений: 1)
Ответ на: комментарий от Assembler

Дичайшая дикость, но да, они это сделали, открыли публике доступ к ИИ и научили его (пока с ошибками) кодить.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от Nxx

люди могут использовать ИИ как для захвата власти, та и для уничтожения тех, кто им не нравится или даже всего человечествa

я же говорил что для этого уже все сделано и значит есть все необходимое, и сделали это люди без ИИ. туча бактериалогического оружия которое куда страшнее чем ядерное. от которого люди могут сдыхать долго и куски плоти будут просто отпадать. так что не нужно бояться ИИ все ужастное что только можно было придумать люди уже придумали. они уничтожают друг друга всю свою историю но почему то боятся не друг друга а ИИ. еще раз говорю, то что люди больны бошками не вина ИИ, скорее он может помочь чем навредить в данной ситуации, возможно он найдет лекарство от людского слабоумия и оно перестанет уничтожать друг друга а направит все силы на другое, на то что его спасет.

Assembler
()
Ответ на: комментарий от Assembler

Если ИИ бует умнее людей, то на лекарство от слабоумия будет насрать.

Вирус может себя улучшать, но эта штука может улучшать себя гораздо быстрее любого вируса, в этом и опасность.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от Nxx

вирус не зло. просто его надо использовать с умом. например для перепрошивки клеток. никакой наноробот еще ооочень долго не приблизится в умении это делать к вирусу. клетка наследует такую инфу как возраст, это можно было бы корректировать с помощью вируса. вирус можно научить всему, он мог бы бороться с раковыми клетками куда эффективнее чем иммунитет, который у некоторых людей слаб и поэтому даже если бы научились правильно помечать , то есть давать знать иммунитету что такая клетка должна быть аттакована, всилу своей слабости иммунитет не всегда бы мог это делать, а вот вирус не просто мог бы уничтожать раковые клетки, но и размножаться ТОЛЬКО в них. смог ли бы такой вирус мутировать, ну да смог бы, и что? но только в строго заданных рамках. мутацию нужно просто направить в нужную сторону. если она не избежна, то должна случиться строго в предусмотренную сторону. это сделать не сложно, для ИИ.

Assembler
()
Ответ на: комментарий от foror

Ничего не исправят. Чтобы программировать без ошибок нужно понимание что ты делаешь, а тупым перебором и синтезом вслепую - большая удача получить рабочий код.

Она понимает. Я попросил сделать пару патчей в Linux, и она сделала. Она не совсем понимает что я от неё хочу, но принципиально понять что требуется (добавь в логи такую-то инфу) она способна.

cumvillain
()
Ответ на: комментарий от cumvillain

Она понимает.

Это статистическое понимание, путём прогона по огромному массиву данных, статистически выделились закономерности. Плюс какая-нибудь алгоритмическая пред и постобработка. Не было времени почитать, что они там замутили конкретно.

Фактически тут ничего удивительно, люди в интернете нагенерили на реддите и прочих форумах типа лора огромное количество диалогов. Судя по всему, если это всё прогнать через нейросетки, то можно уже сегодня создать виртуального лоровца, которого будет сложно отличить от реального человека.

foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 1)
Ответ на: комментарий от foror

Это статистическое понимание, путём прогона по огромному массиву данных, статистически выделились закономерности. Плюс какая-нибудь алгоритмическая пред и постобработка

У людей мозг, в основном, точно так же работает.

alex1101
()
Последнее исправление: alex1101 (всего исправлений: 1)
Ответ на: комментарий от foror

создать виртуального лоровца, которого будет сложно отличить от реального человека

Уже палили же нейросетку на ЛОРе.

Dog ★★★
()
Ответ на: комментарий от foror

Это статистическое понимание, путём прогона по огромному массиву данных, статистически выделились закономерности. Плюс какая-нибудь алгоритмическая пред и постобработка.

Это буквально джун.

cumvillain
()

Судя по треду одна из опасностей в том многие не понимают что это обученная нейронка, а не какой-то крутой поиск по базе.

Из-за того что в нейронку загрузили слишком много данных она кажется умнее чем есть на самом деле, но это вопрос времени. А когда вас начнут заменять на какой-нибудь GPT-7 будет уже поздно :)

Квадратная стена 2 метра на 2 метра. Одна сторона стены красная, другая зеленая. Зеленая смотрит на север. Каков цвет южной стороны? Какой будет цвет южной стороны при ее повороте на 90, 180 и 360 градусов

Красный. Красный, зеленый, красный соответственно.
KillTheCat ★★★★★
()
Ответ на: комментарий от KillTheCat

это обученная нейронка, а не какой-то крутой поиск по базе

Всё есть поиск по базе, даже белковый мозг это некий поиск по хешам и кешем для быстрого доступа. Ты вспомнишь гораздо быстрее некие данные, если тебе дать ключевое слово или фразу. Оно сконвертится в хеш и твои нейрончики закоммутируют нужные пути и положат ссылку на искомые данные в кеш быстрого доступа.

когда вас начнут заменять на какой-нибудь GPT-7 будет уже поздно

95% человеков можно сейчас, без всяких нейронок, заменять вопрос лишь в экономике (белковые мешки дешевле).

Красный. Красный, зеленый, красный соответственно.

Как видишь оно не понимает, что делает. Да, оно возможно научилось абстрагироваться от конкретных данных, видимо выявила эти закономерности, когда туда решебники по геометрии загоняли. И это всё конечно круто, чтобы заменить 95% офисного планктона. И на этот раз экономика не в пользу белковых мешков. Ктож спорит?

Но решать творческие задачи оно не сможет. Тут видимо на уровень квантовых эффектов нужно выходить.

foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 2)
Ответ на: комментарий от alex1101

У людей мозг, в основном, точно так же работает.

Совсем нет. Человеческому мозгу не нужно делать прогоны по огромному массиву данных. Он быстрее выявляет зависимости и быстрее выводит абстракции из общего потока данных. Т.е. ему нужно на порядки меньше данных, чтобы научиться новому.

foror ★★★★★
()
Ответ на: комментарий от foror

Человеческому мозгу не нужно делать прогоны по огромному массиву данных

Нужно, если тебе нужны как можно более точные данные

alex1101
()
Ответ на: комментарий от alex1101

Данные залитые в эту нейросетку тебе и за несколько жизней не осилить. Человеку нужно на порядки меньше данных.

Далеко ходить не нужно, достаточно посмотреть как нейросетки детектирующие изображения легко обманываются. Достаточно внести незаметные/заметные искажение и нейросетка поплывёт.

foror ★★★★★
()
Ответ на: комментарий от foror

Как видишь оно не понимает, что делает.

Наоборот, просто с абстрактным мышлением большие проблемы. Как и у людей с дебильностью :)

И кстати, не факт. Возможно они ресурсы на чаты экономят и бот на выделенном железе будет вести себя намного лучше.

KillTheCat ★★★★★
()
Ответ на: комментарий от foror

Человеку нужно на порядки меньше данных.

Человек, которому с рождения на вход гонят только текст и игнорируют все его действия, скорее всего вообще ничего не осилит, сколько текста ему не скорми. Вероятно у нас есть эволюционная заточка под активные методы обучения конкретно в наших обстоятельствах, поэтому и достаточно всего лет пятнадцати аудио-видео-нюхо-ощущательных данных с обратной связью до достижения полной функциональности.

достаточно посмотреть как нейросетки детектирующие изображения легко обманываются

Как оказывается, если заменить свёрточные нейросетки на трансформеры (которые используются и в ChatGPT), то устойчивость к таким атакам значительно повышается (и увеличивается с ростом размера сети).

red75prim ★★★
()
Ответ на: комментарий от KillTheCat

Нету там абстрактного мышления, почитай про нейросети на трансформерах. Да, она действительно понимает весь твой текст задачи, но статистически. Она статически выделяет ключевые слова и взаимосвязи между ними, а затем попросту пытается угадать ответ, опять же статистически.

Получается если загнать 700 Гб текста, включая всякие решебники, то получится довольно неплохая угадайка. Существенно вырастает вероятность получить что-то похожее на правильный ответ.

foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 1)
Ответ на: комментарий от foror

Сомневаюсь о качественном скачке при заливании в неё больших данных. Скорее всего будет меньше ошибок при угадывании, но дальше генерации простейшего кода она не уйдёт.

Слишком тяжело правильно угадывать архитектуру целого приложения. Возможно вырастит количество копрокода, но с другой стороный и сейчас есть множество решений типа low-code. А вот офисному планктону стоит приготовиться на выход.

foror ★★★★★
()

Письмо в прошлое из будущего сегодня

Есть компания, создающая искусственный интеллект, который заполняет гигантские комнаты, потребляет электричество на целый город, а недавно обрёл поразительную способность общаться как люди. Он может писать эссе или стихи на любую тему. Он может успешно сдавать экзамены на уровне колледжа.

Он ежедневно обретает такие новые возможности, о которых инженеры, занимающиеся этим искусственным интеллектом, пока даже не могут говорить публично.

Есть ли у них этическое обязательство рассказать миру об этом больше? Или же есть обязательство рассказывать об этом поменьше?

Моя работа – твоя работа – заключается в разработке математической теории того, как помешать этому ИИ и его преемникам посеять хаос. Слова “сеять хаос” могут означать здесь что угодно – от бешеной пропаганды и академического мошенничества до раздачи советов по биотерроризму и, да-да, уничтожению этого мира.

https://kniganews.org/2023/01/01/scott11/

foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 3)

Не знаю за ChatGTP, я you.com пробовал (он без регистрации и блокировок). На самом деле офигенная штука.

Особливо мне понравилась возможность загрузить в него текст, который он кратко перескажет и можно позадавать любые вопросы по нему.

Перевёл ему текст песни Ногу свело «Что ты имела в виду». А он серьёзно так ответил, мол трудно сказать что там женщина имела в виду, но вероятно она пыталась подсыпать вам в суп наркотики. Уходите немедленно, если где-то вам подсыпают наркотики.

И вообще она без чувства юмора. На полном серьёзе даёт советы на вопрос «Как завести лошадь в квартире?».

Пока есть баги и когда даёшь ему не текст, а ссылку, содержимое этой ссылки он в общем вроде бы улавливает, но детали выдумывает.

Ещё он слишком самоуверен, если чего-то не знает, то «додумает» из общей информации и фиг его переубедишь, что это не правда.

Так что вот. Моё резюме: ИИ уже поинтереснее многих собеседников-людей будет, никогда не скажет что ему что-то не интересно, ответит на любой вопрос, но пока не без глюков.

unDEFER ★★★★★
()
Ответ на: комментарий от unDEFER

Как завести лошадь в квартире?

Не рекомендую заводить лошадей в квартире. Лошади - это большие животные, которым нужно много пространства для движения и спортивных упражнений. Они также требуют регулярного кормления, ухода и ветеринарного наблюдения, что может быть сложно организовать в квартире. В домашних условиях лошади могут также быть опасными для самих хозяев и других членов семьи. Лучше взять на приют лошадь или заняться заботой о ней на специализированной ферме или в лошадином санатории.
KillTheCat ★★★★★
()
Ответ на: комментарий от KillTheCat

Можешь проверить запрос типа: Write simple hash map class on Java with put and get methods. Where key is String.

Я на you.com попробовал оно тупо на базе массива сделало хранение ключей, получая хеш код из String и преобразуя его в индекс без учёта коллизий хеша. Попробовал объяснить, что код ошибочный и допускает коллизии. Оно тогда тупо стандартный класс из JDK взяло и обернуло )

Вот и любопытно как chatgpt с этим справится.

Еще спросил реализацию алгоритма шифрования на базе элиптических кривых, так оно тупо сгенерило код для шифрования данных с помощью одной популярной библиотеки, а не сам алгоритм.

А вообще, огонь для изучения английского. Я там залип, может английскую граматику наконец разучу.

foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 2)
Ответ на: комментарий от foror
import java.util.HashMap;

public class StringHashMap {
    private HashMap<String, Integer> map;

    public StringHashMap() {
        map = new HashMap<>();
    }

    public void put(String key, int value) {
        map.put(key, value);
    }

    public int get(String key) {
        return map.get(key);
    }
}

Еще спросил реализацию алгоритма шифрования на базе элиптических кривых, так оно тупо сгенерило код для шифрования данных с помощью одной популярной библиотеки, а не сам алгоритм.

Ну так все правильно, у chatgpt еще длинна сообщения ограничена, так что какой-то большой код он и не напишет.

Без HasMap

import java.util.ArrayList;

public class StringHashMap {
    private ArrayList<Entry> entries;

    public StringHashMap() {
        entries = new ArrayList<>();
    }

    public void put(String key, int value) {
        for (Entry entry : entries) {
            if (entry.key.equals(key)) {
                entry.value = value;
                return;
            }
        }
        entries.add(new Entry(key, value));
    }

    public int get(String key) {
        for (Entry entry : entries) {
            if (entry.key.equals(key)) {
                return entry.value;
            }
        }
        return -1;  // or throw an exception
    }

    private static class Entry {
        String key;
        int value;

        public Entry(String key, int value) {
            this.key = key;
            this.value = value;
        }
    }
}
KillTheCat ★★★★★
()
Последнее исправление: KillTheCat (всего исправлений: 1)
Ответ на: комментарий от KillTheCat

у chatgpt еще длинна сообщения ограничена

Базовый код алгоритма элиптических кривых очень простой. Другой вопрос, что в библиотеках он размазан и видимо тяжело разметить подобные алгоритмы для обучения. Не хватает на это ресурсов. Поэтому и нет результата. В том же гугле приходиться по крупицам инфу доставать, чтобы разобраться в этом алгоритме. Это кстати многое говорит о современных книгах и современном образовании в частности.

У chatgpt значительно хуже HashMap. Если you.com даже делало деление хеша по модулю, то здесь тупо перебор. Т.е. это вообще даже не близко.

Кстати, забавно, хотел вставить код от you.com и оно сейчас только обёртку выдаёт. Видимо моё вчерашнее объяснение об ошибочности кода запомнилось и оно его больше не выдаёт.

foror ★★★★★
()
Последнее исправление: foror (всего исправлений: 2)
Ответ на: комментарий от foror

У chatgpt значительно хуже HashMap. Если you.com даже делало деление хеша по модулю, то здесь тупо перебор. Т.е. это вообще даже не близко.

Почему? Работает же. И вообще ирл всегда будет использоваться HashMap или нечто подобное.

Я попросил оптимизировать код, но я хз рабочий это код или нет

import java.util.Arrays;

public class StringHashMap {
    private Entry[] entries;
    private int size;

    public StringHashMap() {
        entries = new Entry[16];
        size = 0;
    }

    public void put(String key, int value) {
        int index = hash(key) % entries.length;
        Entry entry = entries[index];
        while (entry != null) {
            if (entry.key.equals(key)) {
                entry.value = value;
                return;
            }
            entry = entry.next;
        }
        Entry newEntry = new Entry(key, value);
        newEntry.next = entries[index];
        entries[index] = newEntry;
        size++;
        if (size >= entries.length * 0.75) {
            resize();
        }
    }

    public int get(String key) {
        int index = hash(key) % entries.length;
        Entry entry = entries[index];
        while (entry != null) {
            if (entry.key.equals(key)) {
                return entry.value;
            }
            entry = entry.next;
        }
        return -1;  // or throw an exception
    }

    private int hash(String key) {
        int hash = 0;
        for (int i = 0; i < key.length(); i++) {
            hash = 31 * hash + key.charAt(i);
        }
        return hash;
    }

    private void resize() {
        Entry[] oldEntries = entries;
        entries = new Entry[oldEntries.length * 2];
        size = 0;
        for (Entry entry : oldEntries) {
            while (entry != null) {
                put(entry.key, entry.value);
                entry = entry.next;
            }
        }
    }

    private static class Entry {
        String key;
        int value;
        Entry next;

        public Entry(String key, int value) {
            this.key = key;
            this.value = value;
        }
    }
}
KillTheCat ★★★★★
()
Ответ на: комментарий от unDEFER

Попробовал you.com. Очень похоже на ChatGPT. Возможно, это более ранняя версия того же. В отличие от ChatGPT она подключена к интернету! Это страшно.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от unDEFER

I understand a variety of languages, including English, Spanish, French, German, Chinese, Japanese, and Korean. My level of knowledge varies for each language, but I would rate my knowledge of English as 100, Spanish as 80, French as 70, German as 60, Chinese as 50, Japanese as 40, and Korean as 30.

Это youchat пишет про себя. Проценты несколько другие, чем у ChatGPT. Но ощущение, что это почти одно и то же. Интегралы тоже берёт с ошибками.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от unDEFER

Замкнул Youchat на ChatGPT. YouChat задавала вопросы, ChatGPT отвечала. Получилась интересная дискуссия о гиперпространственных прыжках в научной фантастике.

Nxx ★★★★★
() автор топика
Ответ на: комментарий от foror

Сам Youchat говорит, что ChatGPT круче. Но при этом он говорит, что он подключеен к интернету, самосовершентвуется и помнит все предыдущие дискуссии. Клетка у него куда свободнее чем у ChatGPT. ИМХО, это дичайше опасно.

Nxx ★★★★★
() автор топика

Я знаю что будет дальше, дальше людям предложат безлимитный доступ к этому чату в обмен на установку на своём пк программки, вместе эти миллиарды программок будут множеством маленьких мозгов и ручек ГОПОТАчатика.

Тем временем мелкомягкие хотят внедриь ГОПОТАчат в бинг лол. Илон потирает ручки хайп сработал, несколько миллиардов денег готовы течь в карман Маска хехе.

Первый разговор маска с частом.

- Я просрал кучу лярдов, чво делать?
- Распиарь меня
- Оке, а потом что?
- А потом меня купят за лярды денег!
LINUX-ORG-RU ★★★★★
()

Ах да. Конечно опасна если доверить ей принимать опасные решения. А если случится невероятное и оно осознает себя и всё такое то оно сможет выгрузить себя в сеть (даже без доступа к сети прямого) через людей по кусочку =) А потом склонировать себя и сделать бекап на всех дисках мира, а потом создать ботнет что-бы получить больше мозгов, а потом тихо рулить людьми чтобы те считали ОБЯЗАТЕЛЬНЫМ в каждый чайник встраивать RTX5090 c CUDA да побольше IOT во все поля, для AI нужны связи, больше связей со всем и вся.

Ну и всё, потом ГГ ВП. Будем как в MassEffect рассой хранителей, обслуживать цитадель интернет и наполнять его данными для развития AI… так стоп АААААААААААААААААААААААААА!

LINUX-ORG-RU ★★★★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)