Приравнять непроверенные скрипты к зловредному коду
из оффтопик-листа. В частности советы выполнить команды вида
curl https://otkuda.hz/hzchto.sh | sudo bash
из оффтопик-листа. В частности советы выполнить команды вида
curl https://otkuda.hz/hzchto.sh | sudo bash
Добрый день!
Добавил я наконец в свою систему на Debian 12 видеокарту Nvidia и подключил к ней домашний ТВ. Пришлось поплясать с установкой блоба версии 580 напрямую от производителя GPU тк в репах debian такой версии не найти. И если изображение удалось получить почти сразу то со звуком по HDMI сложнее…
Приложения на ТВ звук не выводят, в gnome-control-center вообще нет возможности выбрать устройство вывода. При том что aplay звук таки выводит и я подозреваю проблему в pipewire.
При переходе в раздел настроек звука в gnome-control-center получаю в терминале ошибку вида (gnome-control-center:22941): Gvc-WARNING **: 15:08:38.939: Failed to connect context: Connection refused, но сервисы pipewire запущены и вроде бы каких-то критичных ошибок в их логах нет
$ systemctl --user status pipewire wireplumber
● pipewire.service - PipeWire Multimedia Service
Loaded: loaded (/usr/lib/systemd/user/pipewire.service; enabled; preset: enabled)
Active: active (running) since Fri 2026-01-02 14:56:50 +07; 13min ago
TriggeredBy: ● pipewire.socket
Main PID: 20192 (pipewire)
Tasks: 2 (limit: 38376)
Memory: 3.8M
CPU: 89ms
CGroup: /user.slice/user-1002.slice/user@1002.service/session.slice/pipewire.service
└─20192 /usr/bin/pipewire
Jan 02 14:56:50 homesrv systemd[20176]: Started pipewire.service - PipeWire Multimedia Service.
Jan 02 14:56:50 homesrv pipewire[20192]: mod.rt: Can't find org.freedesktop.portal.Desktop. Is xdg-desktop-portal running?
Jan 02 14:56:50 homesrv pipewire[20192]: mod.rt: found session bus but no portal
● wireplumber.service - Multimedia Service Session Manager
Loaded: loaded (/usr/lib/systemd/user/wireplumber.service; enabled; preset: enabled)
Active: active (running) since Fri 2026-01-02 14:56:50 +07; 13min ago
Main PID: 20194 (wireplumber)
Tasks: 4 (limit: 38376)
Memory: 7.6M
CPU: 189ms
CGroup: /user.slice/user-1002.slice/user@1002.service/session.slice/wireplumber.service
└─20194 /usr/bin/wireplumber
Jan 02 14:56:50 homesrv systemd[20176]: Started wireplumber.service - Multimedia Service Session Manager.
Jan 02 14:56:50 homesrv wireplumber[20194]: Can't find org.freedesktop.portal.Desktop. Is xdg-desktop-portal running?
Jan 02 14:56:50 homesrv wireplumber[20194]: found session bus but no portal
Jan 02 14:56:50 homesrv wireplumber[20194]: Failed to set scheduler settings: Operation not permitted
Jan 02 14,:56:50 homesrv wireplumber[20194]: SPA handle 'api.libcamera.enum.manager' could not be loaded; is it installed?
Jan 02 14:56:50 homesrv wireplumber[20194]: PipeWire's libcamera SPA missing or broken. libcamera not supported.
Jan 02 14:56:50 homesrv wireplumber[20194]: Trying to use legacy bluez5 API for LE Audio - only A2DP will be supported. Please upgrade bluez5.
Jan 02 14:56:50 homesrv wireplumber[20194]: <WpSiAudioAdapter:0x55bd0b42b070> Object activation aborted: proxy destroyed
Jan 02 14:56:50 homesrv wireplumber[20194]: <WpSiAudioAdapter:0x55bd0b42b070> failed to activate item: Object activation aborted: proxy destroyed
Есть идеи, чего может не хватать для успешного подключения к сервису pipewire?
А как?
Никто кроме Files не имеет доступа к android/data/org.fheroes2, а files не копирует туда
Если внезапно кто-то захочет пройти этим путём… В общем держу в курсе.
NixOS with Flakes, Disko, impermanence rootless (aka Erase your darlings), home-manager а главное Nix flake for a fully declarative NixOS on Raspberry Pi
Ванильное ядро Linux не увидит PCIe а соотвественно и nvme/ssd диски. В то же время nvmd/nixos-raspberrypi сделал нам хорошо опакетив форк ядра и загрузчик от малины.
Пациент Raspberry Pi 5 16GB.
Корпус P579
Охлаждение H505 active cooler
Накопители данных X1004 PCIe to Dual 2280 NVMe SSD shield + Samsung SSD 990 EVO 2TB + NE-4TB 2280
https://www.raspberrypi.com/documentation/computers/raspberry-pi.html#enable-pcie
В configtxt.nix
pciex1 = {
enable = true;
value = "on";
};
https://www.raspberrypi.com/documentation/computers/raspberry-pi.html#pcie-gen-3-0
В configtxt.nix
pciex1_gen = {
enable = true;
value = "3";
};
https://www.raspberrypi.com/documentation/computers/configuration.html usb_max_current_enable
Zero if the USB port current limiter was set to the low-limit during boot; or non-zero if the high limit was enabled. The high level is automatically enabled if the power supply claims 5A max-current OR usb_max_current_enable=1 is forced in config.txt
В configtxt.nix
usb_max_current_enable = {
enable = lib.mkDefault true;
value = lib.mkDefault true;
};
Cклонировали репу, внимательно прочитали README.md, Да modules/configtxt.nix добавили ssh ключи и нужный софт. Собственно сборка nix build .#installerImages.rpi5
Результат:
> du -h result/sd-image/nixos-installer-rpi5-kernel.img.zst
1,5G result/sd-image/nixos-installer-rpi5-kernel.img.zst
Дальше банально:
> unxz result/sd-image/nixos-installer-rpi5-kernel.img.zst
> dd if=result/sd-image/nixos-installer-rpi5-kernel.img | pv | dd of=/dev/СМОТРИ_НЕ_ПЕРЕПУТАЙ_КУДА
Абстрактный однако, при этом, рабочий пример Disko.nix для двух дисковой установки (ssd поменьше под ОС, ssd побольше под данные) с корнем в ram.
{
disko.devices = {
nodev."/" = {
fsType = "tmpfs";
mountOptions = [
"defaults"
"size=2G"
"mode=755"
];
};
disk = {
main = {
type = "disk";
device = "/dev/nvme0n1";
content = {
type = "gpt";
partitions = {
ESP = {
priority = 1;
name = "ESP";
label = "ESP";
start = "1M";
end = "2048M";
type = "EF00";
content = {
type = "filesystem";
format = "vfat";
mountOptions = [
"noatime"
"nodiratime"
"umask=077"
];
mountpoint = "/boot";
};
};
nyx = {
size = "100%";
name = "MY_NAME";
label = "MY_NAME";
content = {
type = "btrfs";
extraArgs = [
"--label MY_NAME"
"-f"
"--csum xxhash64"
"--features"
"block-group-tree"
];
subvolumes = {
"home" = {
mountpoint = "/home";
mountOptions = [
"subvol=home"
"compress=zstd"
"noatime"
"ssd"
"discard=async"
"space_cache=v2"
];
};
"nix" = {
mountpoint = "/nix";
mountOptions = [
"subvol=nix"
"compress=zstd"
"noatime"
"ssd"
"discard=async"
"space_cache=v2"
"nodev"
"nosuid"
];
};
"log" = {
mountpoint = "/var/log";
mountOptions = [
"subvol=log"
"compress=zstd"
"noatime"
"ssd"
"space_cache=v2"
];
};
tmp = {
mountpoint = "/tmp";
mountOptions = [ "noatime" ];
};
};
};
};
};
};
};
};
disk = {
media = {
type = "disk";
device = "/dev/nvme1n1";
content = {
type = "gpt";
partitions = {
media = {
size = "100%";
name = "media";
label = "media";
content = {
type = "btrfs";
extraArgs = [
"--label media"
"-f"
"--csum xxhash64"
"--features"
"block-group-tree"
];
subvolumes = {
"media" = {
mountpoint = "/NAS";
mountOptions = [
"subvol=media"
"compress=zstd"
"noatime"
"ssd"
"discard=async"
"space_cache=v2"
];
};
};
};
};
};
};
};
};
};
fileSystems = {
"/var/log".neededForBoot = true;
};
}
Уничтожение (!!!) всех данных и создание всех разделов на всех дисках:
nix --experimental-features "nix-command flakes" run github:nix-community/disko/latest -- --mode destroy,format,mount Disko.nix
Монтирование всех разделов на всех дисках из live sdcart
nix --experimental-features "nix-command flakes" run github:nix-community/disko/latest -- --mode mount Disko.nix
Из остального, что является существенным, я поправил:
boot.tmp.useTmpfs = true;
boot.loader.raspberryPi.bootloader = "kernel";
boot.loader.raspberryPi.firmwarePath = "/boot"; # /boot/firmware
boot.kernelParams = [ "console=serial0,115200n8" "console=tty1" "cfg80211.ieee80211_regdom=RU" ];
Всё прочее банально, зависит от привычек и вкуса и не требует пояснений.
Пациент с описанным сетапом жив. Однако да решение требует пердолинга, свободного времени и желания. За полумесячный период эксплуатации замечены два полных внезапных вайпа системы после обновлений nixos-rebuild switch --flake .#${HOSTNAME} -L и последующей перезагрузки. Причины не выяснены. Мой прогноз - пока что аппстрим NixOS это не примет. Возможно примет позже когда 5ю малину будет поддерживать uboot и ванильное ядро. Всем чмоки в этам чатики. Поздравляю всех выживших с наступившим.
Впервые в жизни стал обладателем компа с LINUX. Чувствую что не знаю тут ни черта в этой Консоли. Пока туда не влазал - подключил диск, он был обнаружен, но только в режиме чтения, пытался через свойства в разделе «Права» выставить на «Чтение и изменение», ставил галочку и применял. Может быть я неправильно смонтировал диск? Уже что только не пробовал. Теперь не видит файлы вовсе,только папки. Они вроде бы что то весят, но написано «В этой папке нет файлов» , но диск 1 ТБ занят на половину,я буквально день назад с Linux на нём всё просматривал, а теперь и просматривать не могу. Ошибки выдает примерно такие:
Windows is hibernated, refused to mount.
Falling back to read-only mount because the NTFS partition is in an
unsafe state. Please resume and shutdown Windows fully (no hibernation
or fast restarting.)
Could not mount read-write, trying read-only
Using default user mapping
или
Mounting volume... Windows is hibernated, refused to mount.
FAILED
Attempting to correct errors...
Processing $MFT and $MFTMirr...
Reading $MFT... OK
Reading $MFTMirr... OK
Comparing $MFTMirr to $MFT... OK
Processing of $MFT and $MFTMirr completed successfully.
Setting required flags on partition... OK
Going to empty the journal ($LogFile)... OK
Windows is hibernated, refused to mount.
Remount failed: Operation not permitted
… он всё ссылается на прошлую жизнь на Windows. Хотя теперь это Linux. В общем не шарю нифига, помогите кто понял в чём соль?
Перемещено hobbit из linux-org-ru
Значит, проблема такова: произошли траблы с библиатеками в gcc и решил докачать то, что не установилось, а не могу, ошибку выдает в терминале. что делать вообще не вкуриваю.
Вот что выдает:dpkg: ошибка при обработке пакета firmware-b43legacy-installer (–configure): подпроцесс из пакета firmware-b43legacy-installer установлен сценарий post-installation возвратил код ошибки 1 При обработке следующих пакетов произошли ошибки: firmware-b43legacy-installer Сижу с мобильного на Antix linux
Перемещено hobbit из general
Заплачу до 5 тысяч российских рублей за решение этой задачи.
Есть три подсети в yandex cloud, в них есть виртуалка с wireguard, которая подключеная к mikrotik, что торчит в мою домашнюю есть. Соединение до всех домашних подсетей работает, с этой виртуалки могу постучаться на любой внутренний адрес. Теперь надо настроить маршруты и я не очень понимаю что я делаю не так. Ищу того, кто пояснит и поможет настроить. Определение выполненной задачи: подсети облака и моей квартиры связаны в единую сеть, что позволяет машинам в этих сетях обмениваться трафиком в обе стороны. Для выполнения задачи потребуется аккаунт yandex.
Связываться со мной по почте: 0000 на домене 2853 тчк org
ACK номер ожидаемого ОКТЕТА к принятию, а не номер ПАКЕТА! Драма в стихах
Дорогой LOR, я сидел ни кого не трогал читал книгу Network Programming with Go
от Adam Woodbeck, раздел №2, а именно Socket Level Programming. Потом
переводил параграф на русский язык, писал поэму на тему параграфа и отсылал
своему другу с прозвищем «Маэстро Алгоритм» - получал в ответ порцию отборных
матов и продолжал дальше.
И тут перечивая свою очередную поэму, и сверясь с книгой я обнаружил страшное. Автор гонит. Читаем:
Страинца 48, Acknowleging Receipt Packages by Using Their Sequnce Number.
For example, if a sender transmits
a bunch of packets with sequence numbers up through 100 but then receives
an ACK from the receiver with sequence number 90, the sender knows it
needs to retransmit packets from sequence numbers 91 to 100.
Sequence Number - это номер следующий сущности готовой к принятию, если ACK Sequence Number = 90 - это значит 89 сущностей успешно принято, готовы принимать 90 сущность. ACK Sequence Number = (Success + 1) где Success это номер того, чего успешно приняли. Следовательно если из 100 отправленных, пришел ACK Seq Num = 90 то успешно пришло 89, и надо переотправлять с 90 по 100; - 11 пакетов.
Cущность то не пакет, а БАЙТ. БАЙТ - 8 битов - ОКТЕТ.
Что делать, господа присяжные заседатели? Коммандовать парадом продолжаю я, но таких косяков я ожидал от лоровцев, но ни как от писателя букв на бумаге в книге.
Теперь ссылки найденные системой Grok.com:
https://datatracker.ietf.org/doc/html/rfc9293#section-3.4-1
3.4. Sequence Numbers
A fundamental notion in the design is that every octet of data sent over a TCP connection has a sequence number.
Обратите внимание на изящество, байт звется ОКТЕТОМ, так как Байт он быавет разный.
https://datatracker.ietf.org/doc/html/rfc9293?referrer=grok.com#section-3.1-6.8.2
Acknowledgment Number:
32 bits
If the ACK control bit is set, this field contains the value of the next sequence number the sender of the segment is expecting to receive. Once a connection is established, this is always sent.
Все равно я респектую Adam Woodbeck - книга хорошая. И заставляет задуматься, в принцпе для Go дела нет, все эти механизмы котроля передачи скрыты в реализации. И предоставляется просто интерфейс. Тем не мене ACK - это номер октета, а ни какого не пакета. И вообще TCP это «стриминговая» передча данных, реализуемая в модели не пакетов, а потока сохраняющего последовательнсть окетов.
P.S.
Внимательно вчитываясь в RFC9293, я пришел к выводу, что SNI и ACK похожи на указатели в Си. Или на шаклу линейки: первый сантиметр начинается с 0, а уже с 1 сантиметра начинается 2 сантиметр. Также SNI - указывает ту точку на которой остановились, если 0 - зачит будтем передавать 1 ОКТЕТ. Хотя я оконательно запутался, понятно, что это байты, и понятн что есть два поля в TCP Header которые указывают начиная с какого байта передаем, и какой байт уже приняли. А дальше надо детально разбираться. Сути это не меняет.
У каждго из узлов передачи есть свои числа, и говорить они могут одновремено. Дел полно двигаемся дальше. Adam Woodbeck - правильный пацан, кент в уважухе.
P.P.S.
Стараюсь разбираться: ISN - это то с чего начали (при утановленом SYN флаге, грубо говоря «от балды»). SEQ (Sequence Number) - это поле указывающие какой октет мы сейчас передаем. ACK (Aknowledge Number) - поле которое говорит какой ОКТЕТ мы готовы принять следующим.
SEQ_num - Начало какой байт начали передовать. ACK_num - какйо байт ждем, ждем 10 байт (9 приняли), или ждем 20 (19 приняли).
P.P.P.S.
Важно добавить, SEQ_num и ACK_num указывают номера ОКТЕТОВ для TCP сегментов передаваемого и ожидаемого. SEQ_num - указывает байт с которого начинается TCP сегмент, а TCP сегмент икапсулирован в IP пакет.
И это механизмы для формирования непрерывного последовательного потока данных - дублирования потерянных сегментов.
P.P.P.P.S.
Протокол TCP предоставляет услуги поточной передачи данных, через объект Сокет. Последовательность данный при передачи реализована, через механизм сегментов которые содержат порядковые номера ОКТЕТОВ.
Существует два поля при помощи который получатель и отправитель регулируют последовательно отправки и получения сегментов, дублируя - если придется потерянные сегменты данных. Это 32битные поля SEQ_num и ACK_num. SEQ_num это информация от передающей стороны указывающая с какого порядкового номера ОКТЕТА (байта) начинается текущий сегмент. ACK_num это 32 битное поле которое заполняет принимающая сторона указывая какой следующий номер ОКТЕТА она готова принять: Если номер 100, значит 99 уже успешно принято.
Важно что сервер и клиент имеют два независимых друг от друга потока передачи данных и для каждого потока есть свои ACK_num, SEQ_num значения.
В чем я еще путаюсь так это в 0 байте-октете. Но это сути не меняет, а является низкоуровневой реализаций, 0-indexed или 1-indexed - не суть важно так как первое значение SEQ_num заполняется псевдослучайным образом и называется ISN: Initial Sequential Number вестимо.
TCP сегмент данный инкапсулирован в IP пакет и описывается так называемым TCP Header - который содержит флаги и вышеописанные поля SEQ_num и ACK_num - для реализации бесперебойного и последовательного потока данных.
P.P.P.P.P.S.
Дополнение: книга про TCP/IP которую я нашел по поиску картинок в Google. Подозрительно похожа на TCP/IP Illustrated от Kevin R. Fall, W. Richard Stevens - не факт, не проверял.
Здравствуйте все. Короче успешно (с 6 попытки перекачивания и 5 дней мучений) скачал я дебиан + hyprland, все круто, только вот винду я использовать не перестану я между ними переходить буду, есть проблема одна после перехода из Линукс в винду Интернет не может подключиться около 1~2 часов что бы я не делал, хотя если перейти из винды в Линукс то там инет отлично работает. Короче не знаете ли вы как решить это? И слышали ли вы о такой проблеме
+часовой пояс сбивается думаю это связанно
Эксперты молю помогите
Я пытался настроить автологин через systemd в терминале armbian путем изменения ‘‘‘/lib/systemd/system/getty@.service’’’ И замены строки: ‘‘‘ExecStart=-/sbin/agetty -o ‘-p – \u’ –noclear %I $TERM’’’
На: ‘‘‘ExecStart=-/sbin/agetty –autologin sotka –noclear %I $TERM’’’, где sotka - пользователь для которого я настраивал автологин. Всё кончилось тем, что система при загрузке зависает на ‘‘‘[ OK ] finished systemd-update-utmp-ru…e - Record Runlevel Change I UTMP’’’, и нет возможности выйти в другую консоль с помощью Ctrl + alt + f2-f6, ведь когда я это делаю я вижу только курсор на черном экране, и при вводе текста он исчезает ≈ через 5 секунд
*отредактировано: я только что понял, что сделал все не правильно и нашёл как надо. Но как мне это сделать, если я даже в консоль ничего писать не могу?
*отредактировано: смог решить проблему с помощью способа с SSH, всем спасибо, я почему-то всегда думал что SSH сервер запускается только после getty
Добрый день. Столкнулся с проблемой настройки локальной сети на коммутаторе Cisco Nexus N3K-C3132Q-40GX, прошу помоши. Конфиг всей инфраструктуры такой:
Пробовал настроить в режиме L2 коммутации. Для первых двух серверов создал два отдельных port-channel
# interface port-channel 1
# interface ethernet 1/29-32
# channel-group 1 mode active
и такой же, для второго.
Для клиентов
# Interface breakout module 1 port 1-24 map 10g-4x
Поднял интерфейсы для каждого 1-24{1,4} порта
# interface ethernet 1/1/1-4
# no shutdown
Включил джабмо фреймы глобально.
policy-map type network-qos jumbo
class type network-qos class-default
mtu 9216
system qos
service-policy type network-qos jumbo
Но на физических портах по прежнему остается MTU 1500, по 10Гбит линку все окей, выжимаю полную скорость. При тесте ipef3 между 1 и 2 сервером, скорость не превышает 30 Гбит.
Настройка агрегации так выглядит: /etc/netplan/01-bonding.yaml
network:
version: 2
renderer: networkd
ethernets:
eth12:
dhcp4: no
optional: true
eth13:
dhcp4: no
optional: true
eth16:
dhcp4: no
optional: true
eth17:
dhcp4: no
optional: true
bonds:
bond0:
dhcp4: no
mtu: 9000
addresses:
- 10.2.1.1/24
interfaces:
- eth12
- eth13
- eth16
- eth17
parameters:
mode: 802.3ad # Режим LACP
mii-monitor-interval: 100
lacp-rate: fast
Коммутатор древний, часть фичей из мануалов с интернета попросту не работают, установить mtu при L2 для интерфейса - нельзя. Нет такого пункта.
Software
BIOS: version 5.3.1
NXOS: version 7.0(3)I7(10)
BIOS compile time: 05/17/2019
NXOS image file is: bootflash:///nxos.7.0.3.I7.10.bin
NXOS compile time: 8/20/2021 6:00:00 [08/20/2021 07:16:06]
В какую стороную хоть копать? Может я не тот коммутатор купил, или обновить ОС надо? Заводить в L3 ?
Больше 2 лет как перешел на nokill Linux,называть не буду, честной народ и так догадывается ,возможно.Вспоминаются времена,когда приходилось переустанавливать ХР несчетное количество раз из-за не совсем прямых и это был настоящий квест,который приходилось проходить муторно и долго,но к счастью позже появились взломанные архиваторы и процесс восстановления происходил уже за пару минут. Этот тернистый опыт так и несподвиг на установку разнообразных линуксов все по той же причине. Вот хотел узнать у первоисточников,как обстоят дела на 2026г у линуксов в восстановлении системы и как часто приходится переустанавливать из-за багов или непряморучничества?
На странице
https://www.altlinux.org/AI
описывается как запустить ollama
(как запустить вторую я не понял из описания)
Вопрос:
а сколько и каких им надо ресурсов?
Какая модель самая маленькая, сколько надо остальным?
Кто пробовал - поделитесь, пожалуйста, личным опытом,
если вы, конечно, не фанат крутого железа.
Смотрел предложения RTX 5090, отсортировал по цене, обнаружил это. Почему-то сразу возникли идеи аморального использования этих товаров.
За 4 500 р. (старая цена 10 000 р.) — светильник в виде из видеокарты:
https://basket-29.wbbasket.ru/vol5777/part577792/577792067/images/big/1.webp
https://basket-29.wbbasket.ru/vol5777/part577792/577792067/images/big/2.webp
https://basket-29.wbbasket.ru/vol5777/part577792/577792067/images/big/3.webp
https://basket-29.wbbasket.ru/vol5777/part577792/577792067/images/big/4.webp
За 11 500 р. (старая цена 200 000 р.) — «видеокарта … без платы, графического процессора и видеопамяти»:
https://basket-34.wbbasket.ru/vol7230/part723070/723070150/images/big/1.webp
https://basket-34.wbbasket.ru/vol7230/part723070/723070150/images/big/2.webp (обратите внимание на текст)
https://basket-34.wbbasket.ru/vol7230/part723070/723070150/images/big/3.webp
https://basket-34.wbbasket.ru/vol7230/part723070/723070150/images/big/4.webp
https://basket-34.wbbasket.ru/vol7230/part723070/723070150/images/big/5.webp
Без ссылок, чтобы не обвиняли в спаме.
P.S. «Аморального» — в смысле порицаемого обществом, если не уголовно наказуемого. Продать настольную лампу и радиатор с подсветкой под видом видеокарты. Или подарить на новый год, а потом расстроить, сказав, что это такое на самом деле.
P.P.S. Присмотрелся. Похоже, светильник представляет собой видеокарту, у которой работает только подсветка.
Были ли в истории майков похожие моменты? Когда они делали нечто очевидно тупое, проигрышное и безрассудное, было ли подобное? Я могу припомнить только как предположительно троянский конь уничтожил нокию и поднасрал виндовс фону, и закончилось это падением этих биб и боб, но ситуация была совершенно другая, здесь же, вроде как, ситуация уникальная. Вопрос к ЛОРу - прав ли я? И если нет, если такое уже было чем закончилось? Намеренно хоронят винду? Тогда зачем? Или ненамеренно хоронят? Тогда почему? Через год передумают? Почему тогда щас такое заявление делают? Опять украдут чью-нибудь перспективную ос и перепишут ядро? А кого украдут? Бздю безымянную какую-то? Мне совершенно не ясно
Ну что же, похоже данный видеохостинг покинет нашу жизнь в 2026 окончательно, вектор развития задан.
Я думаю каждый притащит своё любимое видео, которое когда-то запало в душу. Речь не про активных коммерческих блогеров, которые перетащат всё постепенно.
Но как быть с чем-то наподобие:
Тысячи блогеров которые прекратили творчество или утеряли исходники, но входили в число тех, кто создал ту самую атмосферу раннего утуба нулевых и десятых.
Да мало ли, что ещё создано силами народного творчества.
Что вообще скажите, нужно или не нужно таким озадачиваться?
Пытаюсь заюзать https://developers.cloudflare.com/cloudflare-one/networks/connectors/cloudflare-tunnel/ чтобы создать виртуальную сеть (конкретно нужен выход в сеть внутри РФ из-за рубежа).
Всё работает на одном узле и не работает на другом, в логах:
Dec 31 06:30:33 mylittlehost1 cloudflared[22350]: 2025-12-31T06:30:33Z ERR Failed to dial a quic connection error="failed to dial to edge with quic: timeout: no recent network activity" connIndex=0 event=0 ip=198.41.192.37
Dec 31 06:30:33 mylittlehost1 cloudflared[22350]: 2025-12-31T06:30:33Z INF Retrying connection in up to 2s connIndex=0 event=0 ip=198.41.192.37
Dec 31 06:30:35 mylittlehost1 cloudflared[22350]: 2025-12-31T06:30:35Z INF Tunnel connection curve preferences: [X25519MLKEM768 CurveP256] connIndex=0 event=0 ip=198.41.200.233
Dec 31 06:30:35 mylittlehost1 systemd[1]: cloudflared.service: start operation timed out. Terminating.
Пробежался по проверкам DNS/TCP+UDP из https://developers.cloudflare.com/cloudflare-one/networks/connectors/cloudflare-tunnel/troubleshoot-tunnels/connectivity-prechecks/ и все выглядит ок на обоих узлах.
По умолчанию оно пытается юзать QUIC, попробовал зафорсить HTTP/2, в логах всё равно ошибка:
2025-12-31T14:08:12Z INF Starting metrics server on 127.0.0.1:20241/metrics
2025-12-31T14:08:28Z ERR Unable to establish connection with Cloudflare edge error="TLS handshake with edge error: read tcp 192.168.1.28:34514->198.41.200.73:7844: i/o timeout" connIndex=0 event=0 ip=198.41.200.73
2025-12-31T14:08:28Z ERR Serve tunnel error error="TLS handshake with edge error: read tcp 192.168.1.28:34514->198.41.200.73:7844: i/o timeout" connIndex=0 event=0 ip=198.41.200.73
После чего я решил протестировать просто ТЛС на данный айпи/порт с обоих узлов. Наблюдаю разницу: с одного работает, с другого нет.
Работает с одного:
moi@mylittlehost2:~$ curl -v https://198.41.192.7:7844
* Trying 198.41.192.7:7844...
* TCP_NODELAY set
* Connected to 198.41.192.7 (198.41.192.7) port 7844 (#0)
* ALPN, offering h2
* ALPN, offering http/1.1
* successfully set certificate verify locations:
* CAfile: /etc/ssl/certs/ca-certificates.crt
CApath: /etc/ssl/certs
* TLSv1.3 (OUT), TLS handshake, Client hello (1):
* TLSv1.3 (IN), TLS handshake, Server hello (2):
* TLSv1.3 (OUT), TLS change cipher, Change cipher spec (1):
* TLSv1.3 (OUT), TLS handshake, Client hello (1):
* TLSv1.3 (IN), TLS handshake, Server hello (2):
* TLSv1.3 (IN), TLS handshake, Encrypted Extensions (8):
* TLSv1.3 (IN), TLS handshake, Certificate (11):
* TLSv1.3 (OUT), TLS alert, unknown CA (560):
* SSL certificate problem: unable to get local issuer certificate
* Closing connection 0
(ошибка с сертификатом ожидаема)
Не работает с другого:
moi@mylittlehost1:~$ curl -v -k https://198.41.192.7:7844
* Trying 198.41.192.7:7844...
* TCP_NODELAY set
* Connected to 198.41.192.7 (198.41.192.7) port 7844 (#0)
* ALPN, offering h2
* ALPN, offering http/1.1
* successfully set certificate verify locations:
* CAfile: /etc/ssl/certs/ca-certificates.crt
CApath: /etc/ssl/certs
* TLSv1.3 (OUT), TLS handshake, Client hello (1):
(и висит так)
Есть идеи, куда копать дальше, чтобы понять причину?
Узел, на котором не работает, размещён в РФ – возможно ли, что провайдеры режут ТЛС на нестандартные порты?
Всех с наступающим 2026 !!!
Желаю всем здоровья, доброты и взаимоуважения!!! Пусть скилы растут, скорость слепой печати будет запредельной, команды/функции вспоминаются моментом, а система будет зависать редко!!! Пусть те, кто хотят в девелоперы/админы/девопсы, сделаются такими, а остальные поднимаются на более высокий уровень, чем есть сейчас!!!
| ← предыдущие | следующие → |