LINUX.ORG.RU

Firefox 141

 ,


1

1

Главное

  • WebGPU включён по умолчанию (пока только Windows). Реализация построена на Rust‑библиотеке WGPU; поддержку Linux и macOS обещают «в ближайшие месяцы».
  • Снижено потребление ОЗУ в Linux и устранено требование «жёсткого» перезапуска после пакетного обновления.
  • «Умные» группы вкладок: встроенный on‑device‑ИИ автоматически объединяет вкладки и придумывает название каждой группы (функция разворачивается постепенно).

Что нового для пользователей

  • Возможность изменять размер зоны инструментов в режиме вертикальных вкладок.
  • Адресная строка теперь умеет конвертировать единицы (длина, масса, температура и т. д.).

Web Platform / CSS / HTML

  • font‑variant‑emoji — выбор «текст»/«графика» для отображения эмодзи.
  • webkitdirectory теперь работает и на Firefox для Android (выбор папок вместо файлов).
  • Заголовок Clear‑Site‑Data: "cache" дополнительно сбрасывает bfcache (back‑forward cache).
  • Новые свойства/методы:
    • persistentDeviceId в PointerEvent;
    • scrollMargin в IntersectionObserver;
    • атрибут closedby и prop closedBy для <dialog>;
    • showPopover() / togglePopover() получают options.source и force.
  • Расширена поддержка CHIPS‑cookies (Cookies Having Independent Partitioned State).

WebDriver BiDi / Marionette

  • Параметр proxy в browser.createUserContext.
  • Событие browsingContext.historyUpdated.
  • Таймаут ожидания навигации после WebDriver:ElementClick сокращён до 50 мс и может быть отключён настройкой.

API для расширений

  • i18n.getPreferredSystemLanguages возвращает приоритеты локалей ОС — удобнее выбирать язык интерфейса дополнения.

Обновление

Пакеты уже появились в репозиториях дистрибутивов Rolling‑Release; для остальных можно скачать tar.bz2 или AppImage с ftp.mozilla.org.

Полный список исправлений безопасности станет доступен вместе с официальным анонсом 22 июля.

>>> Подробнее на mozilla.org



Проверено: CrX ()
Последнее исправление: CrX (всего исправлений: 2)
Ответ на: комментарий от mx__

632

Но тут следует учитывать, что дополнение Tab Count Badge, которое это у меня считает, подсчитывает всё, даже уже сгруппированное...

Somebody ★★★
()
Ответ на: комментарий от thaumiel

RTX HDR под линуксом не работает, разве нет?

Об этом не знаю. Я перечислял кейсы, когда из SDR делают HDR. Примеры софта, который умеет убирать кубики в полутенях и выкручивать яркость на девяточку вместо троечки. ffmpeg не умеет.

sarumeister
()
Ответ на: комментарий от sarumeister

Отлично, отлично. Как видеопоток расшифровывать, так видеокарты хорошие. А как распакованное сразу выкладывать на экран, так внезапно становятся жрущими.

Ну ты как истинная школота понятия о том как работает видеокарта не имеешь, зато имеешь мнение. Да, мой маленький дружок, представь себе что видеокарта это не единый монолитный прибор а сложная составная штука в которой есть куча разных модулей каждый из которых имеет свое нащначение и свои параметры. Есть модуль видео который отвечает за энкодер-декодер видеостримов, есть дисплейный движок, есть модуль масштабирования-конверсии цветового пространства. Это все узлы ускоспецифические и достаточно эффективные. А есть графические вычислительные ядра - по сути это супермощные векторные процессоры на которых можно считать черта лысого. На которых собственно и считаются все искусственные интеллекты и биткоины майнятся. И вот пока ты испоьзуешь видеокарту «старорежимно» - то есть видеодекодер выдает картинку сразу в дисплейный модуль (вариант mpv в полноэкране) у тебя все хорошо. Но вот как только ты начал деаать композитинг - накладывая окно плеера на окно броузера а там еще пачка окон да еще в самом броузере поверх видоса какой-то баннер лезет, а там что-то еще прозрачное - вот тут поднимается GFX ядро. Одно из тех которые пц греются когда ты играешь в свою любимую игрулку вместо того чтобы делать уроки. И вот это вот сжирает почти весь твой выигрыш от хардверного декодирования.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Ну ты как истинная школота понятия

Второе излишне эмоциональное сообщение в этой теме. Ножиком еще своим зеленым помахай.

Нейронка говорит 4к-кадр обработать шейдером sRGB->R10G10B10A2 займет 12.8мкс. 60 таких кадров займет время 768 мкс. Это буквально 0,0768% от крейсерской нагрузки.

sarumeister
()
Ответ на: комментарий от sarumeister

Ну видишь - сам все понимаешь. У тебя мегажирное GFX ядро кторое ничего не ест болтаясь в состоянии RC6. А тут для доли процента ты это ядро активируешь. А у ядер - особенно кривожопых с точки зрения энергосбережения ядер нвидия есть два варианта - вкл-выкл. Ну есть еще правда частота на которой оно вкл. Но ядро не умеет работат на 0.078% от нагрузки. Оно умеет минимум пониматься скажем 800Mhz из возможных 4Ghz то есть на 20% нагрузки. Значит действуя твоим методом - отправляя все в шейдеры видеокарты - ты будешь за 0.0768% нагрузки расплачиваться 20% нагрева и энергоужора. Что и требовалось доказать.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

А у ядер - особенно кривожопых с точки зрения энергосбережения ядер нвидия

То-то я смотрю никто близко не приблизился к терафлопс/ватт, как у нвидии.

Все построения подозреваю на неправильном фундаменте с самого начала. В about:support написано WebRender, то есть браузер в ОЗУ финальный результат не строит. Если видео аппаратно декодируется через vaapi, то фреймы не проходят через ОЗУ. MPV не проверял.

sarumeister
()
Ответ на: комментарий от sarumeister

То-то я смотрю никто близко не приблизился к терафлопс/ватт, как у нвидии.

Терафлопс-ватт и автономность от батареи не зависят друг от друга. Нвидия возможно офигенно эффектива на терафлопсах, но стоит ей только включиться в режим ожидания и она фоном жрет ватт 10. Если не больше. Столько сколько жрет нормальный ноут со всеми потрохаи включая экран на просмотре ютуба через фокс. А тут один гребанный кристалл который еще и не делает ничего.

В about:support написано WebRender, то есть браузер в ОЗУ финальный результат не строит.

Чушь порешь. Как впрочем и всегда в этой ветке. Иногда лучше жевать. Спорить смыла не вижу потому как на лицо полная упертость и уверенность в собственной гениальности подкрепленное нулевым если не отрицателным знанием подчерпнутым их рекламных плакатов нвидии с ее терафлопсами.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Friearch

Я правильно понимаю, что ты утверждаешь, что нагрев будет линейно зависим от частоты?

По классике радиотехники нагрев пропорционален квадрату частоты. Но тут мы имеем несколько иное - во первых не все работет на одной частоте, то что gfx ядра улетают в космос не значит что вся их обвязка туда же летит. Ну и второй момент - тут мы имеем раницу между полностью обесточенным юнитом и юнитом который включен. Ну и нагрузку ниже плинтуса - то есть наши ключи которые обладают квадратичной зависимостью если они реально переключаются с частотой 4Ggz или 800Mhz - бы будем иметь квадрат А вот если наш ключ переключился 1 раз со скоростью 4G и потом 100 циклов простаивал, либо он переключился 1 раз на скорости 800M и потом 20 циклов простаивал - тут тоже хрен пойми что будет. Так что тут очень все сложно - достаточно посмотреть на изыскания инженеров интела повышающих автономность поднимая частоту проца - тут можно погуглить, было несколко коммитов в ядро на эту тему. Но главная проблема остается - поднимая тяжелый процессорный юнит из сна в глубоком C-state для того чтобы выпонить плёвую для него работу ты проиграешь в сравнении со сценарием когда эта работа переложена на маломощный юнит с малыми транзисторным бюджетом. То есть некоторые задачи выгоднее обсчитать на E-ядре чем на GFX шейдере. А заклинания что на видеокарте всегда лучше и эффективнее совершенно не обдумывая задачу - подход дебила. Благо разрабы фокса этой идеологии не следуют а реально обдумывают решение задачи.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Столько сколько жрет нормальный ноут со всеми потрохаи включая экран на просмотре ютуба через фокс.

10 ватт - максимальная мощность одноплатника типа OrangePi, который как раз захлебывается при проигрывании FullHD-видео с ютуба.

Система с i3 показывает 7,5 ватт в простое, 14+ ватт при проигрывании FullHD видео с ютуба. Иногда потребление подпрыгивает в два раза, но это пишут лечится твиками в about:config.

Система с 3090 показывает 30 ватт GPU в простое. MPV грузит CPU. Браузер порядка 41 ватт при проигрывании FullHD с ютуба. 50-100 ватт при включенном RTX HDR. Могу сделать вывод, что 30 ватт в простое есть плата за GDDR6X-VRAM. Наверняка можно что-то подкрутить, но это будет экономия на спичках.

знанием подчерпнутым их рекламных плакатов нвидии с ее терафлопсами.

Плакаты были от Хуавей. В полтора раза больше терафлопсов. В три раза больше ватт.

1 раз со скоростью 4G и потом 100 циклов простаивал

Зачем юниту простаивать? Если шейдеры работают на 1/1300 возможностей видеокарты, то пусть 1/1300 число вычислительных ядер активно, а остальные спят.

sarumeister
()
Последнее исправление: sarumeister (всего исправлений: 2)
Ответ на: комментарий от sarumeister

1/1300 число вычислительных ядер активно

Опять пошли мечты. Оно так не работает. Ты не можешь включить 1 ядро - там все побито на кластеры и ты можешь в лучшем случае включить 1 кластер - ну там будет оно побито на 10 или 8 - не не 1%. Но 1 кластер ядер потянет за собой какой-нибудь общий кэш и еще там кучу всего - то есть у тебя никакой магией нет возможности в современных чипах задействовать столько энергии на сколько тебе надо выхлопа. Там есть некий стартовый порог входа - и все эти магические очень хорошие данные инструкций на ватт появляются уже под хорошей нагрузкой. А там внизу - а броузинг интернета с ютубчиком это примерно дно - все как-то очень хреново. был у меня xps на скайлейке древний, 14нм - жил на 52 ватт батарее в моем офисном использовании 6 часов. Сейчас Arrowlake модный с E и даже LP ядрами, 3нм от TMSC процесс - и тоже живет 6 часов на 52 ватт батарее. Хотя если сравнить энергоэффективность того проца и этого проца в инструкции на ватт - то там пропасть, новый намного впереди. То есть по этому показателю 6 часов должны бы были превратиться в 12 минимум. Но их всеравно 6.

Система с i3 показывает 7,5 ватт в простое, 14+ ватт при проигрывании FullHD видео с ютуба

Моя система с U7 255H и шикарным 3К амоледом проигрывает ютуб за 7.5 ватт. Это в окошке. Без всяких там фулл-скрин хаков от MPV, через фокс. Если гнать по mpv через wayland-dmabuf в полный экран - в 6.5 уложится. Учитывая что в эти 7.5 ватт входит еще ужор экрана - вполне себе неплохо. А 30 ватт для ультрабука - это передел ужора. Учитывая толщину корпуса в 1см вместе с экраном.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Как же макбукам удаётся добиться 20 часов автономности?

Я сколько не читал различные сравнения x86 и ARM - все пишут, что чудес не бывает, и выигрывая по одной метрике, неизбежно проиграешь по другой, и что по паритету возможностей x86 и ARM равны. Но их пользователи говорят о другом, и кому верить?

Chiffchaff
()
Ответ на: комментарий от Qui-Gon

А 30 ватт для ультрабука - это передел ужора

К моему монитору идет БП на 180 ватт (1000 нит в прыжке). Поэтому и страдаю от блоков в полутенях. Был бы постоянно на 30% яркости SDR, то с плохой картинкой мирился бы.

sarumeister
()
Ответ на: комментарий от Chiffchaff

Сто раз уже наверное писал.

Макбук это не просто арм. Макбук - это программно-аппаратная экосистема. Поставь туда линукс - и твои 20 часов испарятся в тумане.

Вот как тут у камрада saumeister i3 жрет 14 ватт на ютубе а у меня на U7 - 7 ватт. И это у меня просто генту, ffmpeg оптимихированный под интел и настройки.

А в макбуке у тебя процессор разработан под ОС и ОС под процессор. То есть для всех энергозатратных операций у тебя предусмотрен аппаратный offload, причем подо все это есть драйвера и это все интегрировано в софт. Там для того чтобы отправить видео на экран не надо использовать тяжелые шейдеры - там стоит какая-то маленькая фигулька которая это делает практически задаром.

Ну а если мы отходим от экосистемы макбука - а берем просто арм - например мой Magicbook Art 14 есть на интеле и есть на arm. То разницы особой в часах не получается. И в шуме вентилятора тоже. Потому как это просто арм - а не эппл-сиикон М, и там кроме ядер арм и обычного 3д ускорителя нет вот этих маленьких незодокументированных помощников. И нет заточенности ОС под их использование.

И это врядли появится в «нашем» мире - потому как эппл это монокультура по сути, а тут - зоопарк. Зоопарк x86, зоопарк видеокарт, звуковых карт, сетевых адаптеров - и каждый крутит по своему, и даже венда не успевает поддрживать полноценно это все а уж линукс которому даже документацию на половину не дают - и подавно. Поэтому если скажем интел иплементиоует какой-то оффлоад механизм, а амд и кулалкомм его не повторят - то перед разрабами линукса встанетвопрос - корячится и изобретать новые протоколы вейланд и новые медиадекодеры чисто под интел отдельно, при этом тащить за собой шейдерную версию этого всего или просто забить и оставить только шейдерную которая работает на всем и поерить нововведение от интел. Потому как даже если потом амд и кулакомм тоже введут нечто подобное - то оно будет свое собственное, несовместимое. И так будет до тех пор пока все производители железяк не договорятся про общий стандарт АПИ и не выложат спеки для опенсорса.

А для мака - разрабам надо реализовать какую-то функцию - они обнаруживают что в софте она как-то много жрет. Идут к железячникам - а сделайте ка нам такой-то ускоритель. Да пожалуйста - примите распишитесь. Понятно что утрирую но в общем идея в том что M* процессоры разрабатывались не под абстрактную идею процессора общего назначения а под конкретную ОС. И ОС подтягивалась под процессоры безжалостно выпиливая все легаси и поддержку древнео софта. Вот и эффективность.

Qui-Gon ★★★★★
()
Ответ на: комментарий от sarumeister

1000 нит в прыжке

Тут вотпрос монитор амолед или нет. Ибо если нет - то яркости пофиг HDR илb SDR.

Мой амолед дает 1600нит в HDR - впрочем для работы не под открытым солнцем 300 хватает, а за счет черного черного то есть контраста 1 к миллиону 8-битная SDR картинка уже практически идеальна. Единственное конечно чем хорош амолед с большой яркостью - ресурсом. Если он рассчитан на 1600 то на 300 он долго не выгорит.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Тут вотпрос монитор амолед или нет

С амолед у меня был HTC Legend в 2010м. Монитор 27" QD-OLED. Никому не рекомендую, так как вижу много недостатков, а энтузиасты и без меня сделают выбор.

sarumeister
()
Ответ на: комментарий от Qui-Gon

В общем, если не врешь про спеки своего дисплея, то либо так

mpv --hdr-compute-peak=no --target-peak=1600 --target-prim=bt.2020 --target-trc=s-log1 --inverse-tone-mapping=yes

Либо так

mpv --hdr-compute-peak=no --target-peak=1600 --target-prim=bt.2020 --target-trc=gamma2.8 --inverse-tone-mapping=yes

В MacOS и iOS SDR->HDR работает по умолчанию во всех проигрывателях.

sarumeister
()
Ответ на: комментарий от sarumeister

у меня амолед - отсюда нет никакого смысла раскачивать диапазон искусственно на большую яркость дабы как-то нивелировать прорывающуюся через матрицу подсветку. Это на IPS и даже на Qled экранах в которых из-под черного цвета пробивается подсветка надо как-то извращаться. А тут даже SDR вполне себе шикарен. Другое дело если видео закодировано с HDR метаданными - тут оно имеет смысл. Но к сожалению пока не поддерживается в wlroots - хоть работа и идет но пока оно не готово. А ставить гном ради hdr видео - да ну его в болото.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

отсюда нет никакого смысла раскачивать диапазон искусственно

Рофлишь. В современных кинотеатрах крутят HDR-контент. Ты берешь SDR контент. Смотришь его на своем HDR-дисплее как SDR-контент. А мог бы SDR->HDR и оценить первоначальную задумку.

Вообще выглядит как принципиальная позиция отказа от HDR. Отчасти — чтобы мне сделать хуже, отчасти потому что не сможешь, отчасти чтобы электричество сэкономить.

sarumeister
()
Ответ на: комментарий от sarumeister

ну не неси чушь. То что ты пишешь - это возьми запиь с диктофона сделанную в 16Kbs, сконвертируй его в looseless и слушай как контент с айтьюнза. Так не работает. Нельзя взять говенный контент и преобразовав его в более емкий формат вернуть потерянное качество. Наоборот - можно. Взять HDR контент и сделать из него отличный SDR. То есть отрезать что-то ты можешь легко = а вот пришить обратно - нет. То есть твое SDR-HDR означает что ты смотришь SDR видео на HDR мониторе. Но это не HDR контент.

Впрочем ты мне напомнил перснажа одной детской книжки времен СССР - который считал что в пении главное - чтобы громко. Вот у тебя похоже нлавное - чтобы ярко. 1000 нит - вау, у меня HDR. Но нет. Это не оно.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Youtube под капотом занимается тем, что берет HDR контент и делает из него SDR. Если исходник HDR, то при просмотре его в файрфоксе в полутенях не будет блоков — будет применен dithering. (Косвенное доказательство, что у Firefox нет никого кто бы убрал бандинг на CSS-градиентах)

Если у тебя есть SDR-контент, то конечно приходит мысль просто задрать яркость, отрезать 16,16,16->0,0,0, поиграть с гаммой. Но во-первых, придется еще и с выходными кодеками поиграть, потому что редкий плейер умеет в HDR-выход. В VLC, например, надо специально включать выходной кодек с каким-то японским названием, и с минимумом крутилок. Для HDR-контента тоже единственный вариант.

Вышеописанный способ не уберет блоки в полутенях. Однако есть референсные RTX HDR и Apple EDR. Первый использует нейронку, чтобы находить в кадре солнце и источники света, глаза с бликами ламп, легкие градиенты и полутени; улучшает яркость и контраст. Вот буквально, сел и поехал — в настройках Nvidia App поставил галочку, и живешь с HDR.

С Аррle EDR проще, чем с RTX HDR. Нет галочек, просто все сразу включено и SDR->HDR везде: в плейерах, в браузерах. Тот же Firefox с ютуба начинает тянуть HDR контент и правильно его отображать. Для меня картинка после Apple EDR была референсом когда я ковырялся с MPV под виндовз.

Проигрыватель MPV умеет играть HDR контент с полпинка (в отличие от VLC). И умеет в то самое SDR->HDR, которое убирает блоки в градиентах, полутенях, делает источники света более яркими чем 255,255,255 от sRGB.

sarumeister
()
Ответ на: комментарий от sarumeister

Youtube под капотом занимается тем, что берет HDR контент и делает из него SDR

Ну так никто не возражает - в эту сторону работает. В обратную - нет. ну если конечно ты не имел в виду послать ютубу запрос чтобы он тебе выдал необрезанный HDR исходник.

делает источники света более яркими чем 255,255,255 от sRGB.

У тебя нет источников света - есть подсветка которая светит сзади, а матрица - это просто шлюз закоывающий поток света. То есть ни на одной матрице кроме амоледа нельзя светить ярче чем светит подсветка. В амоледе по идее можно кратковременно изнасиловать диод и подать в него овернапряжение точечно-кратковременно что оно даст эти самые безумные ниты. Но конечно же ценой ресурса. Поэтому опять же вопрос нужна ли эта яркость. Мне вот точно нет - матрица 40р стоит на алике и менять ее раз в полгода та еще собачья радость.
По сути вся разница в том что вместо 8 бит на цвет 255.255.255 мы получаем 10 бит на цвет. То есть более аккуратную цветопередачу. Но тут опять же - если исходник 8 бит то 10 бит ты можешь сделать некотойрой интерполяцией этого хозяйства. Ну как масшатбирование картинки - будет мыло. Либо тяжелые вычисления. И еще останется вопрос насколько физическая матрица способна показывать эти полутона.

Apple тут вообще лучще не приплетать - огрызок всегда ориентировался на креаклов и дизайнеров в первую голову, поэтому экраны у них тупо лучшие. Они точно умеют в 10 битный цвет не только по спецификации но и по реальному изображению, да еще и калиброваны с завода. В windows железках конечно тоже есть такие , но это элитно-профессиональные железки а масс-маркет завален в основном шлаком. Все несколько поменялось с приходом амоледа - но у амоледов свои проблемы, они как правило перенасыщены в цвет. Ну просто потому что для писшек важно не в реальный цвет, а просто в абы какой цвет (для офисников) или в очень ярко-насыщенно броский чтобы на витрине смотрелось лучше.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

В обратную - нет.

В обратную сторону оно работает ровно настолько, чтобы убирать зрителю блоки в тенях и на градиентах, делать источники света из источников света и делать нормальные человеческие глаза.

Далее, у меня нет подсветки сзади. У меня QD-OLED 27". 43тыс вроде новые.

QD-OLED перенасыщены в цвет на демо-режимах. Если в мониторе выставить режим sRGB, DCI-P3 или HDR, там все четко. Обзорщики не дадут соврать.

Изнасиловать можно любой светодиод. Для твердотельных это вопрос температуры. Для органических это вопрос фотохимической деградации. Во всех магазинах сейчас продаются филаментные светодиодные лампы. Там твердотельные синие или фиолетовые светодиоды в сборках по 18 штук. Покрытые люминофором, обычно желтого цвета. Если в лампочке 6 филаментов, то светодиодов получается 108 — таким небольшим количеством вполне можно осветить небольшую комнату и никто не жалуется на их выгорание в принципе. Про высокое напряжение говорить было бы неправильно: синий светодиод больше чем 2.2В не возьмет. За миллиамперами надо следить.

Соответственно, мой следующий телеящик будет с технологией RGB-MiniLED.

Повторю, что амоледы появились не вчера, а были у (недешевых) смартфонов 15 лет назад. И не сказал бы, что пока семь лет ходил с HTC Legend там что-то выгорело. С другой стороны, статистика дисплея на айфоне показывает, что я его использую раз в 8-16 меньше, чем свой дисплей для работы и развлечений. Как бы тоже сходится.

10 или 12 бит на канал ортогональны HDR. У меня вон телеящик умеет принимать 10 или 12 бит. И на нем даже можно разглядеть отличающиеся биты в 10-битных изображениях. Это при том, что и телек, и система были SDR.

sarumeister
()

firefox android
стоят все галочки в пункте ’Удалять данные просмотра сети при выходе’ при нажатии ’выход’ в главном меню, но это срабатывает не всегда (50\50 может реже), а именно заходишь снова в лису и в меню истории остаётся один сайт.
это кто виноват лиса или я

endspiel
()
Ответ на: комментарий от sarumeister

Покопался в исходниках MPV, фича называется debanding. Там алгоритм, там параметры, местами шейдеры. Беглый поиск говорит, что в VLC есть похожий фильтр. Проверять не буду.

sarumeister
()
Ответ на: комментарий от sarumeister

ну в телефон ты же н пялишься 8 часов к ряду как в рабочий ноут. Есть конечно игроманы которые в телефоне залипают часами - но они смотрят видосики и играют, то есть статических элементов для выгорания там нет. а вот на компе - есть.

Ну да - QD-OLED это практически тот же AMOLED с некоторыми дополнениями, а не чисто QD у которого подсветка таки есть. Но на QD-OLED еще и выгорание потенциально присустствует.

И амоледы уже не те что были 15 лет назад. Они же тоже развиваются.

Ну и выгорание лампочки - это невидимый процесс. Смысл выгорания не в том что у тебя светить перестает, а в том что часть диодов «устает» - и спектр съезжает в сторону красного. И если ты в итоге захочешь посмотреть на белый лист - то увидишь на нем розоватые фантомы статических элементов интерфейса. А светить этот экран еще сто лет будет. Я как-то попал на такое - разбил древний самсунг s8 и мне на савеле за копейки поменяли экран - на бу с витринного тлф видимо, с розовыми иконками. Но самому пока не удалось довести телефон до выгорания хотя юзаю 5-летний хуавей, до сих пор все норм.

Qui-Gon ★★★★★
()
Ответ на: комментарий от sarumeister

кстати что до чистого HDR в фоксе - то вот

bugzilla.mozilla.org/show_bug.cgi?id=1642854

мастер-баг по HDR. Примерно оценить когда. В принципе у меня сейчас включен HDR композитинг в фоксе - но пока еще периодически падает, это 143 nighty то есть девелоперская сборка + я тащу патчи от Странского до их приземления даже в nightly. В принципе есть шанс что полетит (не в дефолте) к релизу 143 , в дефолт уйдет наверное к 144-145.

Так что терпение, не скажу что скоро но в обозримом будущем заработает HDR в ютубе просто по дефолту.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

HDR лишь симптом проблемы. Тикет по HDR на Windows NEW/unassigned. Тикет по WebHID NEW/unassigned. Тикет по бандингу на градиентах assigned, но assignee впервые увидел исходники браузера два месяца назад и за время своей работы еще ни одного бага не исправил. Судя по истории, все нужные шейдеры есть, и были написаны прошлой высокоразвитой цивилизацией (до оптимизаций?). Надо просто флаг протащить.

sarumeister
()
Ответ на: комментарий от sarumeister

Не было никакой прошлой цивилизации. Все разработки по vaapi проигрывателю и дальнейшая оптимизация этого начались когда шляпа наняла под это дело Мартина Странского. Собственно Мартин это все и тащит - к вопросу почему на Windows unassigned.

Ну понятно что какие-то мелкие подзадачки берут и другие разрабы в том числе и джуны - всетаки большой проект.

Qui-Gon ★★★★★
()
Последнее исправление: Qui-Gon (всего исправлений: 1)
Ответ на: комментарий от Qui-Gon

При чем тут Мартин Странский. Баг по ссылке открыт 15 лет назад, и не имеет отношения к видео.

Я сомневаюсь, что assignee этого бага Alex Hill является сотрудником Мозиллы. Похож на обычного неравнодушного мимокрокодила с гитхаба. Его даже в списках контрибьюторов нет.

sarumeister
()
Последнее исправление: sarumeister (всего исправлений: 1)
Ответ на: комментарий от Qui-Gon

В целом про многое можно забыть.

Firefox: просит ежемесячный донат

Разработчики Firefox: двигают кнопки, группируют вкладки

Thunderbird: просит ежемесячный донат

Разработчики Thunderbird: плюнули на все критические баги и ушли

СЕО Мозиллы: выписывает себе $6млн бонус из донатов

sarumeister
()
Ответ на: комментарий от sarumeister

Ну ты абсолютно не прав про разрабов фокса. Вполне активно развивают, особенно то что касается движка в линукс-вейланд. Он стал реально сильно лучше за последние пару лет.

по Thunderbird - ну а альтернатива то есть? Еще более заброшенный и как выясняется адски дырявый Evolution и чуток консольных программулек.

Ну а то что до бонусов - вон ител в полной жопе а бонусы Пэта загнавшего интел в эту жопу своими мудацкими идеями ничуть от этого не пострадали. Так что это вообще правда жизни из мира CEO. Они там живут по правилу голливудских звезд - есть кассовый успех у фильма, нет успеха - какая разница, гонорар звезде вынь да положь. Единственное что как-то еще держит в напряжении - после нескольких провалов к ряду на главные роли перестают звать….

Qui-Gon ★★★★★
()

ХЗ что там поменяли, на оффтопике некоторые сайты (типа графиков finam) перестали работать, видео в рилсах(!) стало 5 кадров в секунду... Плюнул и поставил/откатился на ESR.

Shadow ★★★★★
()

Адресная строка теперь умеет конвертировать единицы (длина, масса, температура и т. д.).

Только этого и не хватало. Это-то здесь зачем? Конвертер единиц [измерения] можно в какой-нибудь калькулятор встроить, или в какую-нибудь инженерного толка программу, но в браузере, кмк, это ненужная фича от слова «совсем».

yars068 ★★★★★
()
Ответ на: комментарий от yars068

Конвертер единиц [измерения] можно в какой-нибудь калькулятор встроить

А футы/локти/аршины/версты/мили/узлы/галлоны/футбольные поля/баррели кто будет в нормальную систему переводить ?

Myp3ik ★★★
()
Ответ на: комментарий от Myp3ik

А футы/локти/аршины/версты/мили/узлы/галлоны/футбольные поля/баррели кто будет в нормальную систему переводить ?

Есть универсальное решение: https://www.gnu.org/software/units/

Есть GUI альтернатива, встроенная в KDE: https://kde.ru/kb/krunner/

Chiffchaff
()
Ответ на: комментарий от Chiffchaff

Есть GUI альтернатива, встроенная в KDE: https://kde.ru/kb/krunner/

Спасибо огромное! К стыду своему, многого не знал ( я ещё очень много чего не знаю! ;P)...

Somebody ★★★
()
Для того чтобы оставить комментарий войдите или зарегистрируйтесь.