LINUX.ORG.RU
ФорумTalks

MiDesktop - форк KDE 1 для современных систем

 , , , ,


1

2

Представлен форк KDE 1.1.2, который доступен к использованию на современных системах. Форк перевели на QT2 для решения проблем и ограничений лицензии, специфичных для ветки Qt 1. Развивается также актуализированный форк QT 2.3.2. Пакеты доступны для Debian 13 и Ubuntu 24.04.

Целью проекта заявлена модернизация кодовой базы KDE 1, не перегружая при этом окружение избыточной функциональностью. Планируется создание редакции для Wayland, переработка KDM для запуска в современных системах; портирование KDE-приложений, таких как KEdit, KWrite, KCalc и KMix; решение проблем с прокруткой во всех приложениях; добавление в меню завершения работы с системой опций управления питанием (выключение, перезапуск и т.п.); поддержка звуковых эффектов и актуального звукового стека.

Опеннет
Reddit
Исходники



Последнее исправление: hobbit (всего исправлений: 1)
Ответ на: комментарий от James_Holden

без обучения, ты не сможешь даже адекватно дышать при убегании от хищника

Не убежишь, никаких шансов. Разве что от такого же двуногого инвалида.

bread
()
Ответ на: комментарий от Shadow

КДЕ6 — реально удобная вещь.

А как он в сравнении с KDE5?

System Settings работает немного лучше (хотя местами глючит). Грузится немного быстрее. Размеры в памяти и на диске не сравнивал. Возможно, при апдейте отваливалась тема оформления — не помню, не до того было.

question4 ★★★★★
()
Ответ на: комментарий от question4

Не спешите так, я ещё KDE2 не попробовал. Сабж думаю пока пропустить, первая версия обычно сырая получается. А на третьей уже скатываются в СГ.

bread
()
Ответ на: комментарий от wandrien

Нет, чувак. Не так. Судя по твоим тезисам, это у тебя нет реального опыта разработки.

Ну ладно, пусть будет по вашему. Но я продолжу настаивать на «Распарсить чужой код тяжелее чем написать свой.» и даже накину в довесок «свой код по прошествии лет, тоже местами не сразу парситься».

Любой код, который ты сам писал полгода назад — это точно такой же чужерожный код для твоего сознания, как и любой другой.

Ну полгода это врядли, во всяком случае у меня был именно «полугодичный» опыт на протяжении более чем 10 лет, если быть точным 19 с одним перерывом на полтора года. Чужеродным он казался как раз после перерыва и то скорее всего из-за смены самой деятельности, т.е. чисто лютая административная работа на которой не то что про программинг, вообще про это ваше «вайти в АйТи» забываешь от слова совсем и доверяешь решениям принятым твоим замом и коллективу в зависимости от задач.

anc ★★★★★
()
Ответ на: комментарий от bread

без обучения, ты не сможешь даже адекватно дышать при убегании от хищника

Не убежишь, никаких шансов. Разве что от такого же двуногого инвалида.

Зависит от местности и самого хищника, поговаривают что и на сосну народ залезал не помня себя.

anc ★★★★★
()
Ответ на: комментарий от question4

System Settings работает немного лучше (хотя местами глючит)

Мне одному соответствие «лучше» и «глючит» в одном предложении резануло глаз?

anc ★★★★★
()
Ответ на: комментарий от X512

Ну т.е. из ходить и говорить оставляем только ходить.

anc ★★★★★
()
Ответ на: комментарий от wandrien

«чилавеческий мозг уникален, иво не панять и не пафтарить!»

А оно так и есть.

anc ★★★★★
()
Ответ на: комментарий от James_Holden

А миллиона LLM обученных по разному у нас, пока нет.

Упаси господь ещё и от такого...

anc ★★★★★
()
Ответ на: комментарий от James_Holden

А LLM кстати «понимает» мои посты намного лучше, чем лоровцы

Ну тогда похоже вам надо перезжать на LLMOR. :) Ну и слушать, уж простите вспомнилось https://www.youtube.com/watch?v=A2urYQFSHYE :)

anc ★★★★★
()
Ответ на: комментарий от einhander

О, вспомнил, там вроде moc без патча не собирался gcc 2.7.2, зато нормально собирался gcc 2.8.1, но .so не собирались, только .a. Но и static KDE норм работал. А с патчем под gcc 2.7.2 под FreeBSD норм работал.

Shadow ★★★★★
()
Последнее исправление: Shadow (всего исправлений: 1)
Ответ на: комментарий от anc

«лучше» и «глючит» в одном предложении

Качество — вещь относительная :)

Когда я уходил с КДЕ 4 на XFCE, пользоваться им было невозможно. В 5 меня что-то неработающее раздражало, в 6 поправили. Сейчас настройки мониторов иногда не применяются с первого нажатия, нужно вводить повторно; выключатель громкости звуковых эффектов сам собой включается (но разницы никакой, т.к. у меня нет системных звуков), ещё какие-то мелочи. Заработали монтирование и настройки сети, с которыми раньше были проблемы.

question4 ★★★★★
()
Ответ на: комментарий от Shadow

Ну все, теперь точно в этой теме обсуждать аниме. Т.к. FreeBSD уже патчили.

einhander ★★★★★
()
Ответ на: комментарий от question4

Я даже КДЕ 2-3 не мог пользоваться. Скорее всего, из-за того, что там в Qt втащили/впилили/выпилили что-то, из-за чего у них пропала двойная буферизация окон, а лёгкий лаг отрисовки UI меня ппц как бесит. К счастью, в gtk2 как раз это решили (также бесил gtk1 и первые gtk2), и я пользовался гномом, пока не попробовал 5-ю плазму (4-я падала).

Shadow ★★★★★
()
Ответ на: комментарий от question4

Качество — вещь относительная :)

Вынужден согласиться, ведь качественное овно оно таки качественное :) Поймите правильно, я не топлю против чего-то, это не более чем высказывание.

anc ★★★★★
()
Ответ на: комментарий от wandrien

Сегодня вот мне Клод за 3 минуты написал скрипт на 27 килобайт.

И как этот скрипт выглядит? Разобаться можно? Поддерживаемо? Или как обычные генерированные скрипты типа какого-нибудь configure в котором черт ногу сломит?

watchcat382
()
Ответ на: комментарий от wandrien

Словами говоришь компьютеру, что требуется выполнить, и он выполняет.

Человеку-то бывает словами говоришь,а он не понимает и фигню делает. Куда уж тут компьютеру… Собственно, компьютер и ценен тем что программируется на формальных языках, точно описывающих что ему сделать надо. И даже в этих языках периодически находят неопределенное поведение.

А вот пример объяснений на естественном языке: https://hsto.org/storage/habraeffect/0a/e1/0ae1e8c194ab405327cf3cb2d465d4ef.jpg

watchcat382
()
Ответ на: комментарий от watchcat382

Если машина будет за меня делать 80-90 процентов тупой работы, чтобы я мог поправить оставшиеся 10-20, то пусть «не понимает и фигню делает».

Что касается способности понимать, то компьютер нередко намного лучше отдельный людей понимает смысл речи, чем вон местные обитатели.

Компьютер лишен механизма проекций психики и исходит из усредненного понимания на огромной выборке.

wandrien ★★★
()
Последнее исправление: wandrien (всего исправлений: 2)
Ответ на: комментарий от watchcat382

Из минусов:

Когда LLM изменяет существующий код, она может неточно скопировать некоторые части кода.

Например, в моих кейсах Клод «любит» часто удалять часть комментариев.

Поэтому сначала внимательно смотрим на diff, потом только коммитим, если всё ок.

wandrien ★★★
()
Ответ на: комментарий от wandrien

Если машина будет за меня делать 80-90 процентов тупой работы, чтобы я мог поправить оставшиеся 10-20, то пусть «не понимает и фигню делает».

А это представления, которые я также восторженно воспринимал 15 лет назад. Сейчас бы за них себе дал бы подзатыльник, как Микеланджело. Потому что если так и будет, то возникнет вопрос: ты зачем? Может тебя сократить? Благотворительных служб по раздаче денег всем подряд и за так сейчас нет!

Govorilnik90
() автор топика
Ответ на: комментарий от Govorilnik90

возникнет вопрос: ты зачем? Может тебя сократить?

Ты не поверишь… но именно это и происходит в индустрии.

И индустрии вообще насрать, восторжен ты или нет.

wandrien ★★★
()
Ответ на: комментарий от wandrien

Что касается способности понимать, то компьютер нередко намного лучше отдельный людей понимает смысл речи, чем вон местные обитатели.

Если Вашу речь не понимают многие, то возможно стоит поискать проблему в зеркале, а не на стороне.

Govorilnik90
() автор топика
Ответ на: комментарий от wandrien

Ты не поверишь… но именно это и происходит в индустрии.

А ты и рад, чтобы это на самом деле происходило. А где же программа самосохранения? Видимо забыли заложить…

Govorilnik90
() автор топика
Последнее исправление: Govorilnik90 (всего исправлений: 1)
Ответ на: комментарий от Govorilnik90

Я реалист.

А вот ты занимаешься плотнейшими проекциями. Приписываешь собеседнику какие-то представления и эмоциональные оценки на основании собственных страхов.

wandrien ★★★
()
Ответ на: комментарий от wandrien

Вставьте пожалуйста, пропущенные слова в предложении:

Я реалист.

Их довольно-таки много. Образец:

Я считаю себя реалистом, но таковым не являюсь от слова совсем. У меня есть представления, которые я хотел, чтобы они стали реальностью. Но не понимаю, почему они таковыми никогда не будут. Не склонен к критическому мышлению и анализу, в том числе и на основе прошлого опыта, и воспринимаю как истину в последней инстанции любую it-пропаганду.

Govorilnik90
() автор топика
Последнее исправление: Govorilnik90 (всего исправлений: 1)
Ответ на: комментарий от wandrien

Если машина будет за меня делать 80-90 процентов тупой работы, чтобы я мог поправить оставшиеся 10-20, то пусть «не понимает и фигню делает».

Полностью с вами согласен. Причем я бы даже понизил процент до 30-50. Всё равно у меня останется существенно больше времени чтобы думать над «не тупой» частью работы.

И судя по моему эксперименту, даже обычный чат-бот,не заточенный специально на написание кода, неплохо пишет например небольшие функции на Си по словесному описанию того что она должна делать. Думаю что конечно он не пишет сам,просто все такие простые функции уже где-то когда-то были написаны и соответственно попали в обучающий датасет. Так что это получается такой продвинутый поисковик по чужому коду. И это совсем даже не плохо,а наоборот хорошо. Потому что в силу вероятностной природы нейросеток выдан будет наиболее общеупотребительный вариант их возможных. Не факт что он окажется лучшим,но вероятность этого весьма высока.

А еще у меня был опыт когда чат-бот успешно объяснял мне этимологию местных финско-язычных топонимов в районе моего обитания. Прямо как с человеком побеседовал,в совершенстве знающим финский язык. Некоторые названия оказались … шведскими.

watchcat382
()
Ответ на: комментарий от bread

И населения оставят 10%.

Какие-то британские ученые (реально - британские:) выдвигали теорию что с точки зрения оптимальности использования ресурсов планеты и создания конфортной среды обитания рекомендуемая численность населения мира - около 1-1.5 миллиарда человек. Про это даже в английской википедии статья была,но ссылку я не сохранил. Собственно,всего-то сотню лет назад примерно столько людей в мире и было.

watchcat382
()
Ответ на: комментарий от Govorilnik90

возникнет вопрос: ты зачем? Может тебя сократить?

Видов работ где человек еще очень долго будет дешевле робота - очень и очень много. Это те где надо работать не только головой,но и руками. А роботы пока что только головой могут по большей части. Даже просто с передвижением в пространстве (не размеченном и не подготовленном специально) у них пока что серьезные проблемы.

watchcat382
()
Ответ на: комментарий от watchcat382

Таких теорий разной степени упоротости десятки. У кого-то 1–1.5 млрд, у кого и все 50. Учёные учёным рознь. Не всегда стоит воспринимать их гипотезы и даже теории за истину. Особенно, когда речь идёт не о теориях, объясняющих устройство мира и обладающих предсказательной силой («если сделать так-то, то вот по этой формуле результат будет такой-то, вот эксперименты, подтверждающие это»), а говорящие о том, «как нам лучше устроить жизнь». Они почти всегда политически окрашены и искажены чрезмерными упрощениями.

CrX ★★★★★
()
Ответ на: комментарий от watchcat382

Он пишет «именно сам».

С некоторого объема обучения модель переходит от «зубрежки» к «озарению» и начинает «интуитивно понимать» смысл того, что она пишет.

Простая аналогия, 45437 + 56901 = модель посчитает не потому, что она видела все возможные суммы, а потому, что у ней есть «интуитивное ощущение числа».

Я писал об этом статью: LLM: от предсказателя слов к подобию рефлексии

Ошибки же у модели связаны с её нарративной природой. Она не может чётко прослеживать формальные связи. Собственно, человек тоже базово не может, это приобретаемый в ходе обучения комплексный навык, для реализации которого мы используем средства аугментации: запись мыслей на бумагу, выписывание формул, диаграмм, описание при помощи формальных грамматик (ЯП) и т.п.

Понимание LLM кода можно сравнить с тем, как ребенок интуитивное понимает язык. Только ребенок понимает обычно 1 язык, реже 2, а LLm училась понимать сразу все языки мира, включая математические и инженерные.

wandrien ★★★
()
Ответ на: комментарий от wandrien

именно это и происходит в индустрии.

Это совершенно нормальные и обычные процессы. С появлением ткацких станков сокращали ткачей,с появление электросварки сокращали клепальщиков,с появлением компьютеров сократили расчетчиков с арифмометрами,ну и много всяких других аналогичных примеров было. И ничего, мир не перевернулся, кладбищ вымерших от голода сокращенных - не наблюдается. Главное чтобы эти процессы происходили не так быстро как например сокращение промышленности у нас в России в 90х когда люди не успевали адаптироваться психологически.

watchcat382
()
Ответ на: комментарий от watchcat382

Видов работ где человек еще очень долго будет дешевле робота - очень и очень много.

Судя по @wandrien , это ненадолго. Потому что механик для робота и проблемы с ориентацией в пространстве, могут обходится в разы дешевле, нежели чем медицина как отрасль. А результат гораздо более эффективный. Препарат для кожаного может стоить нескольких десятков миллионов рублей. И это тоже интересный аргумент.

Доп: самое интересное, что в случае с препаратом, результат не гарантируется от слова совсем.

Govorilnik90
() автор топика
Последнее исправление: Govorilnik90 (всего исправлений: 2)
Ответ на: комментарий от CrX

Таких теорий разной степени упоротости десятки. Не всегда стоит воспринимать их гипотезы и даже теории за истину.

Безусловно с вами согласен. Но видя сколько стоит даже простое жилье (это не только про РФ!) возникает стойкое ощущение что людей слишком много. И с проблемой нехватки доступного людям жилья не могут толком справиться почти нигде. А ведь есть еще и места где людям не хватает еды и воды.

watchcat382
()
Ответ на: комментарий от wandrien

Он пишет «именно сам».

Тут я должен бы восклинуть «Да ну?», ибо мне как-то сложно представить чтобы модель делала то чего небыло в обучающем датасете. Но я не силен в теории LLM поэтому спорить не буду.

С некоторого объема обучения модель переходит от «зубрежки» к «озарению»

А есть у ученых какие-то объективные оценки этого объема?

watchcat382
()
Ответ на: комментарий от wandrien

Понимание LLM кода можно сравнить с тем, как ребенок интуитивное понимает язык.

Он не «интуитивно» понимает, его языку целенаправленно учат. Сначала родитель просто тыкает пальцем в предмет и называет слово. Потом более сложные понятия объясняет. Еще ни один ребенок не родился с пониманием языка. Но вот то,что проживание ребенка в мультиязычной среде способствует развития его мозга в сравнении с тем кто рос там где используется только один язык - это доказанный факт.

LLm училась понимать сразу все языки мира

Безусловно согласен что LLM превосходит человека в «количественном» так сказать смысле. Также как калькулятор считает быстрее человека,а экскаватор «сильнее» человека-землекопа.

watchcat382
()
Ответ на: комментарий от watchcat382

Тут я должен бы восклинуть «Да ну?», ибо мне как-то сложно представить чтобы модель делала то чего небыло в обучающем датасете.

В её обучающем датасете совершенно точно не было 145437 + 356901 = (подставьте любые 2 числа).

Результат: https://chat.qwen.ai/s/efca749e-08fb-449b-a6a8-bcfa7838d742?fev=0.1.32

Это свойство называется эмерджентность.

Что касается «видела», у модели физически нет такого объема нейронов, чтобы запомнить весь объем обучающих примеров.

wandrien ★★★
()
Ответ на: комментарий от watchcat382

Он не «интуитивно» понимает, его языку целенаправленно учат

Смысл слова «интутивно» здесь в том, что он «понимает язык, однако не понимает, как именно он его понимает». Ребенок не думает: ага, вижу + кот, после глагола требуется аккузатив, давай посмотрим в таблицу склонения… получается «вижу кот-а».

Он сразу производит: «вижу кота». Нейросеть (в голове) выполнила обобщение на основе тысяч примеров. Нейросеть в GPU делает то же самое.

wandrien ★★★
()
Последнее исправление: wandrien (всего исправлений: 1)
Ответ на: комментарий от Govorilnik90

Потому что механик для робота и проблемы с ориентацией в пространстве, могут обходится в разы дешевле

Вот кстати хорошее замечение - роботу всё равно нужен человек-механик. Причем весьма и весьма продвинутый.

Препарат для кожаного может стоить нескольких десятков миллионов рублей.

Кожаного можно не ремонтировать,а просто заменить на другого. Они же саморазмножаются,в отличие от роботов. В том числе и поэтому в массе они дешевле. Да, есть небольшое количество уникальных дорогих кожаных,но именно что очень небольшое. Препарат за несколько десятков млн руб могут позволить себе очень немногие. Остальные просто умирают. Но мир от этого не рушится. Наоборот, людей с каждым годом становится всё больше,следовательно ценность каждого отдельного среднего человека падает.

watchcat382
()
Ответ на: комментарий от wandrien

В её обучающем датасете совершенно точно не было 145437 + 356901

Учитывая объемы данных на которых их обучают - я бы не утверждал этого столь категорично.

Результат: https://chat.qwen.ai/s/efca749e-08fb-449b-a6a8-bcfa7838d742?fev=0.1.32

Вполне вам верю что оно посчитало правильно,но мне почему-то выдало страницу на которой написано Current System does not Support. Не очень понял что оно подразумевало под «current system».

у модели физически нет такого объема нейронов, чтобы запомнить весь объем обучающих примеров.

Но как-то же она их усваивает. Может в связях между нейронами,возможное число которых растёт кратно быстрее числа самих нейронов?

watchcat382
()
Ответ на: комментарий от wandrien

Он сразу производит: «вижу кота».

Послушайте как разговаривают «иностранные специалисты» плохо знающие русский язык. У них как раз с всякими склонениями всё плохо в стиле «моя твоя не понимай».

Нейросеть (в голове) выполнила обобщение на основе тысяч примеров.

Вот именно что готовых примеров. Если небыло нужного примера (в окружении человека не нашлось того кто хорошо говорит по-русски) - то и он будет говорить косноязычно. Что мы на примере тех «иностранных специалистов» и наблюдаем.

watchcat382
()
Ответ на: комментарий от watchcat382

Странно. А на этот сервис ссылки работают? https://chat.z.ai/s/f9937a56-2501-49d4-b6cc-dfb0d38ded99

Но как-то же она их усваивает.

Через обобщения. Как это происходит конкретно, мы не знаем. Знаем только, что в N-мерном пространстве формируются «векторы смысла», где близкие по смыслу понятия лежат ближе друг к другу, а если рассматривать систему в динамике, то в ней формируются «схемы» (circuits), которые отвечают за некоторые процессы обработки смысла, например, «найти глагол в предложении», «повторить мысль» (цикл), «подавить мысль» (выход из цикла) и т.п.

wandrien ★★★
()
Ответ на: комментарий от watchcat382

Вот именно что готовых примеров.

Это можно понимать по-разному.

Если мы говорим, что модель воспроизводит какую-то последовательность слов, потому что она видела что-то похожее и повторяет это - это одно.

Если мы говорим, что модель воспроизводит какую-то последовательность слов, потому что она использует для генерации выведенную закономерность - это другое.

Первое - сломанный магнитофон. В таком случае LLM не нужна, а нужен качественный поиск по исходной базе примеров.

Второе - совсем другое дело.

И LLM работают именно на втором уровне.

wandrien ★★★
()
Ответ на: комментарий от wandrien

А на этот сервис ссылки работают? https://chat.z.ai/s/f9937a56-2501-49d4-b6cc-dfb0d38ded99

Можно сказать что нет. Появляется большая буква Z посередине,потом она пропадает и остается пустой экран. И всё. Так как у меня интернет через сотового оператора то возможно причина в блокировках. Хотя при попытке зайти туда чере Тор происходит всё тоже самое. Выключить uBlock пробовал,хотя я и не уверен что своим штатным «выключателем» он полностью выключается. А деинсталлировать не хочу,потом обратно ставить возни много.

Сам я пользовался вот этим сервисом, он работает: https://duckduckgo.com/?q=DuckDuckGo+AI+Chat&ia=chat&duckai=1

watchcat382
()
Ответ на: комментарий от unixnik

Gnome как раз свернул туда. А вот KDE после 4й версии это набор слабосвянных полуработающих свистелок и перделок. Без дизайна и какой-либо идеи.

Reset ★★★★★
()
Ответ на: комментарий от watchcat382

Насчёт пользы вот пример из жизни. Вот такая длиннющая диагностика от GCC: https://pastebin.com/wYGbWgMw

Я все глаза проглядел, пытаясь понять, это у меня руки из жо, или это ложноположительное срабатывание. По всей логике получается, что срабатывание ложное.

Дал трём LLM исходный файл и этот лог. Все три пришли к выводу, что имеет место ложноположительное срабатывание и объяснили, как оно возникло на этом коде. Дали советы, какие минимальные правки внести в код, чтобы GCC был счастлив.

wandrien ★★★
()
Ответ на: комментарий от watchcat382

Кожаного можно не ремонтировать,а просто заменить на другого.

И робота тоже. Таргет причем в пользу робота, в отличие от человека.

Govorilnik90
() автор топика
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)