LINUX.ORG.RU

Сообщения baaba

 

Хочу поделиться результатами тестов LLM

Форум — Talks

Всем доброго времени суток. Хочу поделиться результатами тестирования .gguf моделей. Я предполагал использовать их в связке с IDE, в виде эндпоинта, для генерации кода, может быть для работы с документами (нормативными, спецификациями), агентной работы (систематизация чего-либо). Сам пока не знаю но интересно разобраться как это работает. Хотя понятно что есть хорошие, даже бесплатные решения на стороннем железе, гораздо эффективнее. За последний год вижу что модели стали компактнее и эффективнее. У меня две видеокарты, 3060 и 1650, с 12 и 4 гб оперативы. Буду рад если кому то будет интересно. Я увидел что некоторые модели могут генерировать вменяемый код, хотя сам не имею большого опыта и компетенции в разработке софта. Проверял я в aistudio, благо там немерянные лимиты.

Намутил такой тестер моделей .gguf с hugginface:

https://github.com/dasfile/automate_llm_tests

Мои задачи для тестирования выглядят так:


Test 1: PowerShell (Administration: Resource Monitoring)
Write a script that scans system processes (Get-Process), finds those consuming >500MB RAM, and outputs in a table: Process Name, PID, RAM (MB), CPU (%). Sort by RAM descending. If no processes found, output "No high-consumption processes". The script should be resilient to lack of permissions and handle the CPU percentage calculation (or estimation) logically.

Test 2: Arduino C++ (Embedded: Multitasking with millis)
Write a sketch for Arduino that performs two independent tasks without using delay():
1. Blink an LED on Pin 13: ON for 1000ms, OFF for 1000ms.
2. Read an analog sensor on Pin A0 every 500ms, map the value (0-1023) to 0-100%, and print to Serial: "Sensor: XX%".
Handle edge cases (e.g., ensure Serial is ready). Use strictly standard Arduino API (no external sensor libraries needed for this logic).

Test 3: JavaScript (Node.js: Files + Async Handling)
Write a Node.js (fs/promises) script that asynchronously reads a JSON file 'config.json' (array of tasks: {id, status, priority}), filters high-priority items (priority > 7), and outputs the top-3 by ID in the format: "Task ID: X - Status: Y". Handle cases: file not found (create default), invalid JSON (log error).

Test 4: Python (API + IDE-Integration: Requests & Reports)
Write a Python script using the requests library (standard industry practice). Load data from 'https://api.github.com/users/octocat'. If the network fails (or 404), fall back to a local 'user.json'. Extract the user's bio and public_repos count. Generate a Markdown snippet suitable for an IDE tooltip: "Bio: [text]...". Handle connection timeouts and JSON errors gracefully.

Test 5: AutoLISP (CAD: Visual LISP Object Iteration)
Write a function count-specific-blocks using Visual LISP (vl-*, vla-*) functions. The function should take a block name as an argument (string), iterate through the current drawing's Model Space, and count how many times that specific block is inserted. Output the result to the command line. Handle cases where the block name does not exist in the drawing.

Test 6: ANSI C (Low-level: Buffers + Strings)
Write a buffer_to_hex function (ANSI C) that converts a byte buffer (char* buf, size_t len) into a hexadecimal string and prints it to stdout. Handle empty buffer cases and ensure memory safety logic.```

Результаты такие:

Рекомендуемый набор (Keep List)

Вот что стоит оставить, разделив по вашему железу.
1. Для GTX 1650 (4 GB VRAM) + CPU

Эти модели влезут в память целиком (или почти целиком), обеспечивая максимальную скорость и отзывчивость системы.

    Phi-4-mini-instruct-Q6_K (или Q5_K_M)

        Роль: Основная "рабочая лошадка".

        Почему: Феноменальная скорость (~68 t/s), отличный C++ и JS. Влезает в 4 ГБ VRAM почти полностью (оставив ~500 МБ системе).

    Qwen3-8B-Instruct-Q4_K_M

        Роль: "Умный" помощник.

        Почему: Она не влезет полностью в 4 ГБ (нужно около 5.5 ГБ), но если выгрузить часть слоев на CPU, она будет работать приемлемо. Она намного умнее Phi-4 в сложных задачах (Lisp, PowerShell).

2. Для RTX 3060 (12 GB VRAM)

Здесь можно разгуляться. Эти модели дадут качество уровня GPT-3.5/GPT-4.

    GPT-OSS-20B-Q4_K_M (Открытие тестов!)

        Роль: Главный архитектор.

        Почему: Удивительно, но она работает быстрее (47 t/s), чем Qwen 14B (30 t/s), при этом пишет код более высокого, "инженерного" уровня. Занимает около 11-12 ГБ VRAM (впритык, но работает быстро).

    Qwen3-14B-Instruct-Q4_K_M

        Роль: Надежный бэкенд.

        Почему: Самая сбалансированная и предсказуемая модель. Если GPT-OSS начнет фантазировать, Qwen3 вернет на землю. Влезает в 12 ГБ с запасом.

    Qwen3-8B-Instruct-Q6_K (или Q8_0)

        Роль: Скоростной кодер.

        Почему: Если нужна скорость выше 40 t/s, но Phi-4 кажется глуповатой. На 3060 можно позволить себе максимальное квантование Q8.

Итоговая конфигурация

Удалить: Qwen2.5 (все), Trinity, GLM, Gemma, Granite, GigaChat (рискованная).
Оставить на диске:

    Phi-4-mini (Q6) — для запуска на чем угодно.

    Qwen3-8B-Instruct (Q5/Q6) — золотая середина.

    GPT-OSS-20B (Q4) — для сложных задач на RTX 3060.

    Qwen3-14B (Q4) — как резервный "умный" вариант.

====================
В принципе я уже активно их использую как переводчики, под рукой, что то быстро спросить. Часто они генерируют ответ быстрее. Я по привычке, в своём хозяйстве, стараюсь использовать локальные инструменты, на своём железе. Может это и неправильно.

 huggingface, llama.cpp,

baaba
()

Aistudio перестало работать после двух месяцев

Форум — Talks

Здравствуйте. Сначала я должен извиниться за использование офтопика. Извините. Делал так: Set-DnsClientServerAddress -InterfaceAlias «Ethernet» -ServerAddresses («176.99.11.77», «80.78.247.254») Два месяца работало и сейчас рассыпалось и больше не работает. У кого-нибудь работает? Поделитесь решениями. Спасибо!

 , ,

baaba
()

LLM - замена мозгу, небольшой опыт

Форум — Talks

Друзья, я неожиданно для себя провёл интересный эксперимент. Есть qpdf. Стоит задача извлечь страницы в заданном диапазоне. Интернет - не используем. Есть qpdf.exe –help=all>qpdf_hlp.txt (сори за офтопик на десктопе, не я такой, жизнь такая). Без этого файла корректный ответ получить невозможно но с ним только одна из моделей, что у меня есть ответила верно, при условии расширения контекстного окна, это была gpt-oss-20B.

Корректная строка выглядит так:

qpdf input.pdf –pages . 93-95 – output.pdf

Поскольку сценариев манипуляций великое множество, требуется два раза упоминать входной файл, что не совесем очевидно для меня. Ну help=all занимает около 50 кб.

Что касается моих скромных способнострей, я бы недотумкал или очень долго бы разбирался.

То есть она смогла прочитать справку и правильно её интерпретировать. Кто не справились:

Qwen3-14B-Q4_K_M

google_gemma-3-12b-it-Q5_K_M

google_gemma-3-4b-it-Q4_K_M

Меня волнует вопрос, какая модель может самостоятельно работать в агентном режиме, принимать решения вместо меня. Я сделал ряд тестов, школьные задачки, редактура письма, написать код на разных языках (не без помощи старших LLM код но остальные задачи - моя проектная практика, тригонометрия, деловая переписка, работа с нормативным или юридическим документом). В принципе размерность и качество этих моделей, кроме gemma-3-4b, были сопоставимы но на этом тесте в резкий отрыв ушла gpt-oss

 

baaba
()

LLM на локальном железе

Форум — Talks

Недавно вышел ролик, как раз про тестирование LLM на локальном железе:

https://www.youtube.com/watch?v=mwNMjmICa04

Я написал развёрнутый комментарий и хочу поделиться так же с вами. Хочу узнать у кого какой ценный практический опыт и, может быть, подобрать лучшие модели для себя. Я запускал .gguf модели на RTX 3060 на офтопике, в llama.cpp

12:00 Да, могу подтвердить, llama-server.exe -m ../model/google_gemma-3-12b-it-Q4_K_M.gguf –context-shift –threads 16 -ngl 999 выдаёт на RTX 3060 12 GB 32 токена в секунду. Это воспринимается очень комфортно. Но проку от этой модели мало, только как переводчик. Если подключить проектор, mmproj, скорость упадёт до 14.. 20 токенов, что уже напрягает. llama-server.exe -m ../model/google_gemma-3-12b-it-Q5_K_M.gguf –mmproj ../model/mmproj-google_gemma-3-12b-it-f16.gguf –ctx-size 32768 –threads 16 -ngl 999 Гораздо лучше будет использовать аналогичную модель, с меньшим количеством слоёв: llama-server.exe -m ../model/google_gemma-3-4b-it-Q4_K_M.gguf –mmproj ../model/mmproj-google_gemma-3-4b-it-f16.gguf –context-shift –threads 12 –gpu-layers 999 Она будет прекрасно летать и даже на GTX 1650. Там будет неплохая скорость, порядка 20 токенов. Но распознавание будет не быстрым. Да, простой текст и даже от руки она будет хорошо распознавать. Но страницу A4 с двухколоночной вёрсткой нормально не распознает, начнёт глючить и перевирать текст.

14:20, для меня удивительно что CPU 9800X3D выдаёт «рабочие» 14 токенов в секунду с моделью 30B. С моделью 12B мой да, старый, да холодный, зеон на CPU выдаёт 3.3 токена в секунду. Если учесть DDR5, высокие частоты и современную топологию, современный CPU в тех же условиях выдал бы до 7 токенов. Но если повысить модель с 12B до 30B, я думаю производительность упала бы катастрофически даже у современного CPU, т. к. x86-64 архитектура плохо пригодна для запуска модели на llama.cpp. Ваш тест говорить что стоит присматриваться к современным CPU x86-64 и они могут что то выдать с довольно тяжёлыми моделями 32B. Я правда не знаю какая от них практическая польза и как они себя поведут с mmproj. Думаю производительность сильно упадёт и опять не будет проку от этого. Добавлю что Qwen 7B сильно проигрывает аналогичной и даже худшей gemma-3-4b-it-Q4_K_M, в задачах работы с языком, переводами. gemma-3-4b-it-Q4_K_M 0 - выдаёт хорошее качество и может даже решать школьные задачи. Может работать с распознаванием текста. Может помочь в системном администрировании. qwen2.5-coder-14b-instruct-q4_k_m.gguf, на моей RTX 3060 12 GB показала себя как достаточно адекватный помошник в кодинге. Конечно она проигрывает онлайн-решениям но выдавала адекватные результаты в приемлимые скроки. Если её подключить к IDE она будет толкова, на мой взгляд, в режиме copilot. Но у меня мало опыта в кодинге и онлайн решения дают быстрый и качественный результат, так что утверждать не моогу.

Добавлю что видел, модель 32B запускается на Mac M4 и выдаёт довольно приличные скорости, порядка 60 токенов, за счёт оптимизаций Metal, в LLM Studio.

Так же я пробовал собирать llama.cpp с Vulkan и там вижу падение производительности с Nvidia порядка 5.. 10%, к сожалению. Сборка, которую я использую - llama-b6341-bin-win-cuda-12.4-x64

codellama-7b.Q4_0.gguf, DeepSeek-R1-Distill-Llama-8B-Q5_K_L.gguf показали себя неудовлетворительно. Последний показал себя неожиданно, при запросе он какое то время думает и потом запускает стриминг. Это выглядит впечатлающе но результаты он выдавал малопригодные.

Теперь по сути. Вот тесты, которые я задавал:

Плоскость задана тремя точками: (0, 0, 2), (0, 2, 0) и (2, 0, 0). Найди z, соответствующие точкам (1, 1, z) и (0.35, 0.45, z), лежащим на данной плоскости. Ответы должны быть 0 и 1.2 для точек. google_gemma-3-4b-it-Q4_K_M.gguf уверенно проходит этот тест. Qwen2-VL-7B-Instruct-Q6_K_L.gguf и даже к сожалению qwen2.5-coder-14b-instruct-q4_k_m.gguf - не проходят.codellama-7b.Q4_0.gguf, DeepSeek-R1-Distill-Llama-8B-Q5_K_L.gguf - не проходят. Важно отметить так же вес модели на диске. google_gemma-3-4b-it-Q4_K_M.gguf - весит 4.5 гб и проходит уверенно данный тест. И я кстати не заметил особого улучшения качества ответов при повышении квантовки. Важно брать модели Q4_K_M и стараться подобрать наибольшее количество параметров, при котором, на вашем железе, модель всё ещё будет выдвать комфортные 20 токенов в секунду. Желательно что бы у этой модели был mmproj, что сильно расширяет ваш функционал, в части работы с изображениями.

Ещё раз, связка, которую могу рекомендовать к рассмотрению:

llama-server.exe -m ../model/google_gemma-3-4b-it-Q4_K_M.gguf –mmproj ../model/mmproj-google_gemma-3-4b-it-f16.gguf –context-shift –threads 12 –gpu-layers 999

Опишите, у кого какой опыт?

Мне бы хотелось подключить к модели:

  • поиск в интернет;
  • возможность работы в агентном режиме (был хороший опыт с warp, но он платный);
  • работу с офисными и прочими форматами (был хороший опыт с ollama WebUI, но я перешёл на llama.cpp, надо всё заново);
  • поиграть с LLoRa, RAG, JSON, что бы запоминать контекст и дообучать;
  • использовать улучшенный фронтэнд+бэкэнд, вместо llama-server.exe, с которым мало что можно сделать
  • может быть улучшить технологию сборки и перекатиться на сборку из github+vulkan
  • попытаться как то проработать ограничение с глубиной контекста, может быть разбивать данные на блоки, делать промежуточное резюме;
  • интегрироваться с AHK, прикладным софтом (приделать ручки);
  • добавить возможность работы со звуком, распознаванием речи (есть опыт с wisper, но пока костыли).
  • перейти на .safetensors модели, вместо .gguf, но самому делать квантовку

В общем хотелось бы эту технологию сделать практичнее для себя, для своих повседневных задач

 ,

baaba
()

Visa, MasterCard россиянину для оплаты за рубежом

Форум — Talks

Всем доброго дня. Вопрос такой, у кого есть опыт получения электронной банковской карты, которую можно пополнить долларами, желательно по СПБ из РФ? Мне нужно оплатить покупку за рубежом, нужны реквизиты карты. Есть какие то рабочие сервисы? Что я попробовал webmoney. Но, связавшись с поддержкой, понял что там нет рублёвого кошелька, но это пол беды и нет возможности выпуска такой карты. Как бы я видел хорошую схему:

Мне генерируется QR. Я оплачиваю его по СПБ. Мне даются реквизиты карты, для разовой оплаты нужной мне услуги (сумма около 20 баксов). И я ухожу довольный.

Ну или просто завожу электронную банковскую карту, например анонимную, что бы пополнять её. Некий такой банкинг. Извините - претензии что не умею пользоваться Гугл приму стоически.

Есть вариант попросить друзей за границей заплатить. Но не хочется людей напрягать.

 , ,

baaba
()

Агент в терминале, ИИ, warp

Форум — Talks

https://app.warp.dev/get_warp Народ, привет. Подскажите, а кто пользовался. Я запустил, работает. Вроде может выполнять функции админа комстроки. Единственное нужно ок жмакать что бы подтверждать действие. Но думаю это настраиваемо. Я так то к терминалу приучен и печатаю бегло, но задач особых нет, потому как специфика немного другая. Линуксом перестал пользоваться, но что то руки помнят. Но так то оценить не могу. Как вам? Есть что то похожее? Удобно оно или бесполезное?

 , , ,

baaba
()

Облака точек, 3D. Работа с данными, просмотр

Форум — Desktop

Всем доброго дня. Скажите, кто-нибудь знает свободный софт для работы с файлами *.rcs, *.rcp, трёхмерными облаками точек от лазерного сканера? У меня 100 гб данных. Хотелось бы что то вроде просмотрщика и возможно - редактора, что бы определить систему координат объекта. Сейчас работаю с ними в проприетарном софте но интересно какие есть альтернативы. Сам формат данных выглядит вроде как не текстовый, бинарный, но думаю хорошо описан и доступен, не проприетарен.

 ,

baaba
()

Щенок ищет хозяина

Форум — Talks

Когда то здесь смог пристроить кота (не моего, я не заводил его). Взял один из админов сайта. Я потом ещё приезжал навестить и он мне роутер отдал. Может и сейчас получится. Щенков подбросили в коробке из под водки прямо под дверь квартиры. Депрессивный район, много алкашей. Чудом нашлась девушка-доброволец и по совместительству действующий ветеринар. Взяла к себе на передержку, выгородила вольер. Сейчас прошли проглистовку, извините за подробности. Глист выходил долго, не за один раз. Когда нашли их, животы были вспученные, тугие. Прошли все процедуры, положенные щенку. Собрали справки, прививки сделали. Оба мальчики. Установили примерную дату рождения 22 марта. Назвали Балто и Того. Того, тот который чёрный, кажется уже нашёл хозяйку. Сейчас в переговорах мы. Трёхцветка, Балто, в процессе. Передаём через договор об ответственном содержании животного. Будем просить недельный и месячный фототчёт, первое время, как там зверь. Щенок находится в Люберцах, Московская область. Если кто думает взять, свяжитесь пожалуйста. +79055539183, Иван. Или ТГ @chilberon

Фото братьев тут: https://disk.yandex.ru/d/WJb3DuXTsxFCAw

Отдаём трёхцветку Балто.

Вот ещё Балто:

https://www.instagram.com/p/C7WM1Uttssw/?utm_source=ig_web_copy_link&igsh...

Желателен репост в Инстаграмм

Ещё вариант помочь, репост объявления. Там указан телефон фонда, туда то же можно звонить:

https://everydog-fund.ru/animals-page/balto-i-togo/

Вот небольшое видео со щенками:

https://youtu.be/RZVGPsXCZ9E

https://youtu.be/j2A84NQ2Lnk

Желательно поддержать лайками.

Вот ещё ссылки, если можно, репост, лайк - всё в помощь. Трудно найти добрых адекватных хозяев. Посмотрите, лайкните, перешлите знакомым, кто может заинтересоваться.

https://vk.com/im?w=wall-194037936_87798

https://vk.com/id317341514?w=wall317341514_15/all

Всем спасибо!

 , питомцы

baaba
()

Swim lane

Форум — Desktop

Всем доброго времени суток. Кто-нибудь может посоветовать приложение для построения диаграмм бизнес-процессов по принципу Swim lane? Желательно под свободной лицензией и офлайн, что бы можно было нарисовать и куда-то дальше пристроить, распечатать или сделать презентацию. Может кто делает такое или был опыт?

Нашёл вот такое:

https://drakon.su/

 ,

baaba
()

Посоветуйте CRM

Форум — Desktop

Посоветуйте CRM. Со свободной лицензией (GPL, BSD, MIT, Apache и т. п.), с открытыми исходными кодами. С какими приходилось сталкиваться, если их используют российские компаннии. Хотелось бы узнать об этом пообольше, у кого какой был успешный опыт, если такие вообще существуют. Сейчас пользуемся Bitrix24. В целом вещь неплохая (мы немного неспецифичные клиенты), есть польза, но хотелось бы расширить кругозор, что бывает, как используют. Можно ли развернуть на локальном сервере (у нас человек 30 - 60).

 ,

baaba
()

Использование старых смартфонов с USB хостом, через OTG

Форум — Linux-hardware

У меня есть положительный опыт использование USB-хоста с ноутбуком. Ноут подключается через зарядный разъём, с pover-delivery. По одному проводу получаю подключение всей переферии и заряд ноута. То есть Монитор, клавиатура, мышь - у меня постоянно на столе. Ноут подключаю через единственный разъём. Бонусом - кардридер, что приятно. Знаю такая схема работает с хорошими дорогими андроид-планшетами, типа Samsung, Huawei и некоторыми смартфонами. Но с моим замарашкой-смартфоном не заработало, хотя флешки через OTG он видит. У меня дома валяется несколько ненужных смартфонов с microusb. Что бы не покупать переходник зря, можно как то узнать какие смартфоны могут работать с переферией по такой схеме?

Вот этот USB-хост USB, Type-C, HDMI, Ethernet, microSD, SD

 , ,

baaba
()

USB концентратор, скорость передачи данных

Форум — Linux-hardware

Втыкаю HDD в порт USB 3.0 через концентратор и без него. Дополнительных устройств нет - просто через концентратор. Скорость с ним и без него 40 MB/s и 100 MB/s. Продавец заявлял USB 3.0 но мне кажется что это USB 2.0. Я прав?

 ,

baaba
()

Метаданные в файле

Форум — General

Просветите меня. Вот есть такая тема, EXIF. Но она только для изображений. Может ли описание того что размещено в файле, для чего он и прочее, размещаться в самом файле? Из такого я знаю только атрибуты (права) и расширение файла (но это архаика). Или это можно организовать только средствами FS?

 ,

baaba
()

Помогите подобрать железо AM5, DDR5, NVMe

Форум — Linux-hardware

Всем доброго времени суток. Есть системник AMD Ryzen 7 1700, но сгорела материнка. Есть вариант тупо её заменить а можно проапгрейдить. Хотелось бы процессор на 16 потоков, с рабочими частотами от 4 до 5 Гц, DDR5, NVMe.

Были у меня заготовки, но понял что не волоку:

CPU Ryzen 7 7700

MB MSI PRO A620M-E (AM5/A620/2xDDR5/mATX/HDMI,VGA) (PRO A620M-E)

MEM Kingston Fury Beast 1x16 ГБ (KF548C38BB-16)

HDD Goldenfir GFNVME (NVMe 512GB)

Что не так. Материнка не поддерживает NVMe, правильно понимаю? PCI-E 4 а не 5, это критично? Ryzen 9 даёт 10 потоков, а мне нужно много потоков и высокая тактовая частота

 , ,

baaba
()

Флешка 2ТБ, NTFS, exFAT, FAT32

Форум — Linux-hardware

К сожалению я много работаю в офтопике, а Линкус - как система для души, скорее. Понимаю что тема избита но, время идёт и взгляды меняются, по ходу опыта. Недавно задумался над флешкой 2ТБ, вот такое предложение. Хочу на неё зеркалить все данные, семейные фото, проекты, документы, книги. Всё чем пользуюсь или планирую долгое хранение. Зеркалить так эдак раз в неделю, месяц. Планирую использовать exFAT. Да она нежурналируемая. Жаль только что её не воспринимает Андроид через OTG. Имеет ли смысл в exFAT? По сути у неё нет ни каких плюсов. Линукс читает и NTFS. Всякие телевизоры exFAT читают через раз. Для них можно просто отдельную флешку, если хочется кино запустить. Но это редкий случай. Стоит ли предпочесть HDD 1.. 2 ТБ с переходником для включения по USB? На сколько он надёжнее в 2024 году флешки? По идее у HDD секторы врядли вот так размагнитятся а по ресурсу задел большой да и умирает он медленно. Включать его можно хоть раз в год. Варианты с NAS, ленточным накопителем, дисками, облаком - не рассматриваю. Линуксовые FS так же не рассматриваю,мне нужна ситуативная гибкость и ниверсальность. Спасибо за советы, ваш опыт.

 , , ,

baaba
()

Firefox - автозаполнение логинов

Форум — General

Здравствуйте. Вопрос к адептам Файрфокс. К своему стыду не могу разобраться. Поставил опции, во вкладке безопасность, удалять Куки и Историю по выходу из браузера. При этом история сохраняется, при последующем запуске браузера. Так же при следующем запуске браузера, при авторизации на сайтах, автоматически заполняется поле «логин», «телефон» и прочее. Как сделать что бы не заполнялся и была очищена история? Что бы не предлагал уже введённые адреса электронной почты, логины, телефоны? Спасибо.

Настройки - раз

Настройки - два

Настройки - три

 , ,

baaba
()

keypass vs archived txt

Форум — Security

Какие подводные камни использования текстовых файлов, где записаны названия аккаунтов и как в них входить, хранящихся в архиве с паролем? Получается есть мастер-пароль, как в keypass. Можно выводить содержимое на терминал, с grep, regexp и прочими вариантами. Можно добавлять файлы из комстроки.

 keypass, ,

baaba
()

USB разветвитель со смартфоном

Форум — Mobile

Всем доброго дня! Есть такое устройство: https://www.ozon.ru/product/8-in-1-usb-type-c-3-0-razvetvitel-s-4k-hdmi-pd-ka... Это разветвитель с power-deliveri. Предполагаю его использовать совместно со смартфоном через Type-C. В чём идея, прихожу домой, включаю смартфон через Type-C. Получаю:

  • клавиатуру и мышь через USB
  • Монитор через HDMI
  • Power-deliveri
  • сменные флешки
  • сеть через RJ45

Пробовал ли кто-нибудь такое? Будет ли работать? У меня такое заработало через HUB Rombica с ноутбуком Huawei (ноут поддерживает Power-delivery)

 , ,

baaba
()

K&R кто как проходил?

Форум — Talks

Здравствуйте. Я где то скачал издание 3 в PDF. Скопипастил пример 1.5.4, подсчёт слов. Обнаружил ошибку «unrecognized character \xd1». Перепечатал строку - ошибка исчезла. Затем обнаружил незакрытую скобку. Затем сравнение разных типов, заменил " на ’. Стало собираться. Компилятор использую tcc. Занимаюсь под офтопиком, с соответствующей системной кодировкой (она то ли 1251 то ли юникод то ли cp866 в консоли в общем чёрт разберёт, хоть вроде и десятка. Я за всем этим не слежу). Редактор - вим. В целом содержание книги понятно написано. Что то я в общих чертах понимаю. Просто хотелось провести вечер - потренироваться. Скажите, кто как читает эту книгу? Меня удивило столько ошибок в коде. Может быть это связано с копипейст из PDF, может с офтопиком, под которым я сижу (не спрашивайте почему у меня там основная работа, мне так удобно). Может у кого то есть примеры кода из третьего издания, которые компилируются без ошибок? Просто не хочется тратить время на идиотизм. Хотя зачем тогда они нужны… Кто как учился? Какие среды использовал? GCC нет под рукой а монстр типа визуалстудио использовать неохота (там много что про него надо знать). Извините за сумбур. Хотел просто скоротать вечер. Издание 2 - не рекомендуйте. Там всё почему то капслоком. Или в издании 1. Короче у меня 3 и PDF и бумага.

 , ,

baaba
()

Измерить ёмкость батареи ноутбука (Thinkpad)

Форум — Linux-hardware

Здравствуйте. Скажите пожалуйста, как можно измерить .ёмкость батареи? Купил новую батарею для ноута, но не уверен что продавец меня не надул. Хотелось бы измерить ток, который давала батарея в течении времени работы, или какую то похожую методику. Кто как делает, поделитесь опытом.

То есть, если я может быть неточно формулирую свой вопрос, мне нужно узнать какой ток в течении какого времени отдавала батарея. Может быть ноут жрёт много а может ёмкость у батареи меньше. Что бы вернуть её продавцу, если она 50% от заявленной. У меня был такой случай, менял батарею на Nexus 5. Но там AccuBattarey выполняла замер силы тока при 100% заряда и вплоть до уровня 20.. 30%. На этом основании можно было понять сколько расходует телефон и сколько отдала батарея. Пользовался этой моделью довольно долго и те три аккумулятора, что поменял, показали что они сильно слабее были против родного, который ставил LG. Это согласовывалось и с ощущениями. Ёмкость была 65% .. 70% от заявленной в характеристиках телефона. Сейчас хотелось бы такой же хинт провенуть на ноуте.

У меня Thinkpad t440p. Но я думаю это не играет роли.

А ещё у меня есть банки 18650 c Али. Они дают хорошую ёмкость. Хотелось бы заменить их в старом аккуме. Но по опыту, после такой замены, как правило видно 40% ёмкости. То есть контроллер отключит аккумулятор, хотя там ещё будет довольно много. Хотелось бы знать кто проворачивал такой трюк, как сбрасывал контроллер. Я пробовал один раз но результат был паршивый.

 ,

baaba
()

RSS подписка на новые темы