LINUX.ORG.RU

4
Всего сообщений: 80

Синхронизация с Флешкой

Доброе время суток!!

Мне нужно синхронизировать папки с флешки на стационар/ноут в папку по пути.

заранее спасибо.

 , , ,

enep ()

Синхронизация файлов с десктопа на телефон.

Оригинал коллекции mp3 файлов лежит на десктопе, время от времени хочу перекидывать коллекцию на телефон.

Пробовал Syncthing — он не может писать файлы на флешку.

Пробовал Syncopoli — с тем же результатом. В логе вижу ошибку:

Syncopoli rsync: mkdir "/storage/000-0000/qq" failed: Permission denied (13)

(Чтобы случайно не запороть коллекцию, я сделал сихнхронизацию не в /storage/000-0000/Music, а в /storage/000-0000/qq.)

Попытка заранее создать каталог /storage/000-0000/qq не помогает — Syncopoli начинает ругаться на первый же каталог внутри /storage/000-0000/qq.

При этом приложению Syncopoli дарованы READ_EXTERNAL_STORAGE и WRITE_EXTERNAL_STORAGE. При том, что приложение Amaze (файловый менеджер) с такими же READ_EXTERNAL_STORAGE и WRITE_EXTERNAL_STORAGE каким-то образом умудряется создавать и удалять каталоги в /storage/000-0000. При этом, правда, у всех каталогов в /storage/000-0000 рисует метку rx, но это не мешает ему записывать файлы. Другой файловый менеджер, Files, тоже спокойно создаёт и удаляет файлы в /storage/000-0000.

Команда ls -l, исполненная в T-UI, рисует:

drwxr-xr-x 1 root everybody 131072 2020-05-10 02:10 qq

Та же команда, исполненная через adb shell, рисует:

drwxrwx--x 1 root sdcard_rw 131072 2020-05-10 02:10 qq

WTF?

Кто как перекидывает файлы с десктопа на телефон?

 , ,

debugger ()

MATERIALIZED VIEW and запросы к нескольким базам данных

Я прочитал, что в PostgreSQL до сих пор нет механизма выполнения SELECT, связывающего таблицы из разных баз данных.

А MATERIALIZED VIEW тоже не умеет создавать «материализованное представление» с одного сервера на другой?

Реализованы ли в 2020 году инкрементальные обновления MATERIALIZED VIEW в PostgreSQL?

Расскажите, как вы решаете этот вопрос. Используя DBLink, postgres-fdw. Или ещё как-то?

По сути дела, мне нужна синхронизация (обновление в ручном режиме или по расписанию) таблицы на основе определённого SELECT. То есть, копирование части столбцов с одной базы в другую. Пока что единственный способ, который вижу, это COPY FROM/COPY TO через оперативную память. Но на больших объёмах стрёмно так делать.

 ,

BruteForceSSL ()

Chromium sync

Частенько вижу на лоре топят за Chromium. А у него есть синхронизация с андроидом?

В Play Store только хром и его клоны, а где тогда хромиум для андроида брать?

 ,

lukman ()

Мониторы Nvidia G-SYNC в линуксе

Существуют дорогие мониторы с поддержкой технологии Nvidia G-SYNC. У кого-нибудь такой есть? Там реально победили тиринг? И как там с поддержкой Linux?

Давненько читал, но точно не уверен, что технология «вшита» в железо, значит ли это, что и со свободным драйвером в линуксе тиринга не будет? Или с таким монитором только проприетарный драйвер надо юзать?

 , , ,

baklazhan ()

systemd, udisks2 и настройки

А где сейчас принято прописывать настройки автомонтирования для внешних носителей? Раньше, вроде, этим udev занимался, но в его конфигах вроде, практически пусто:

~ cat /etc/udev/rules.d/99-udisks_media.rules
ENV{ID_FS_USAGE}=="filesystem|other|crypto", ENV{UDISKS_FILESYSTEM_SHARED}="1"
Собственно, интересует как прописать sync и таймауты для внешнего хдд, который имеет обыкновение ОЧЕНЬ долго размонтироваться после rsync'а на него большого количества мелких файлов.

Гууглится что-то только старьё, или совсем не ролерованная информация, вроде того как автобэкапы прописать.

 , , ,

thunar ()

Как emerge считает файлы при обновлении?

Number of files: 157,673 (reg: 131,078, dir: 26,595)
Number of created files: 5,655 (reg: 5,373, dir: 282)
Number of deleted files: 7,329 (reg: 6,798, dir: 531)
Number of regular files transferred: 39,611
Total file size: 208.27M bytes
Total transferred file size: 93.03M bytes
Literal data: 93.03M bytes
Matched data: 0 bytes
File list size: 3.84M
File list generation time: 0.001 seconds
File list transfer time: 0.000 seconds
Total bytes sent: 798.59K
Total bytes received: 98.74M

Если было удалено ~5000 файлов и установлено ~7000 новых, то зачем по сети передавалось ~40000 файлов ? Ведь достаточно было бы передать только 7000 новых файлов.

Что такое «регулярные файлы» (мне кажется, что это такие, которые не симлинки и не директории, но директории тут и так считаются отдельно).

Что такое «Literal data»? При чём тут «символьность»? Разве файлы передаются не как бинарные тушки?

Как и для чего можно использовать выведенную здесь на экран информацию?

 ,

Einstok_Fair ()

Как сделать бекап HDD носителя (RAID)

Хай, Есть простая и важная задача.

Есть HDD носитель, важная рабочие данные. Как можно сделать его полный бекап? Есть вроде несколько вариантов: а) Ручками :) б) Вроде делать полный образ носителя 1 файлом, и хранить где угодно. Уточните каким софтом или методом делать. в) Взять другой HDD хоть Sata диск или наверное лучще идейтичный носитель и сделать RAID, Sync - подскажите туториал.

Если есть ещё варианты, подскажите :)

Спасибо

 , ,

Hooder ()

Истории (не)успеха про Syncthing, Resilio Sync (Bittorrent Sync)

Интересуют: домашние и офисные примеры использования по критериям:

  • Как давно запущен?
  • Сколько людей пользуется?
  • Каков суммарный объем данных?
  • Используете ли мобильный клиент (МК)?
  • Если используете МК, то на какой платформе и как вам он (МК)?
  • Опишите свои ощущения от использования сабжей в сравнении с Dropbox, Yandex.Disk, Mega и т. п.

Если что-то еще хочется узнать, добавляйте вопросы комментариях.

По мотивам этого поста: Истории (не)успеха про Owncloud или Nextcloud

 , , ,

lx1 ()

Почему firefox дублирует данные пользователя на свой сервер?

Ситуация следующая: есть свой sync сервер. Завожу на новый аккаунт firefox, цепляю его на свой сервер и забиваю данными(приложения, закладки, история).
Закрываю браузер, удаляю данные пользователя руками, открываю браузер, авторизуюсь и синхронизируюсь с мозиловским sync сервером. И что я вижу?
Я вижу все свои данные. Почему так происходит?

 , ,

xaTa ()

Mozilla Firefox Sync Server и Android Firefox

Доброго времени суток ЛОР. Просьба поделится успехом синхронизации даных между своим Firefox Sync Server и браузером firefox на андроиде. У меня не хочет синхронизировать не автоматом не вручную.

«Последняя синхронизация: никогда»

 , ,

xaTa ()

rclone sync - настройка двусторонней синхронизации

Пытаюсь разобраться для использования облачной синхронизации.

  1. настроил подключение к OneDrive
  2. сделал rclone copy onedrive:/ ~/cloud/onedrive/ - получил локально содержимое облака
  3. настроил в systemd по таймеру запуск скрипта: rclone sync onedrive:/ ~/cloud/onedrive - работает
  4. создал локально файл. после 3) он убился

Вопрос: как правильно (и можно ли) настроить двустороннюю синхронизацию?

 , ,

bvn13 ()

О буферизации данных при записи

А есть ли смысл в эпоху SSD держать данные в буфере в оперативке, вместо того чтобы сразу писать их на диск?

Что нужно сделать, чтобы данные сразу писались на разделы без буферизации? Ну или хотя бы чтобы период sync был маленьким (сейчас он вроде равен 30 секундам)?

 , , ,

Deleted ()

Как лучше синхронизировать 3 мегабайта?

Здравствуйте. Хочу спросить, как бы вы решили такую задачку

Допустим есть условный магазин конфет. Всего пара тысяч наименований, которые, вместе с описанием и прочей метаинформацией умещаются в 3Мб «слепок» условного JSON-а.

Допустим есть сайт этого магазина. При его первом посещении в фоне загружаются эти 3Мб и складываются в localStorage для того, чтобы поиск по конфетам был максимально быстрым и отзывчивым. А так-же для того, чтобы при следующем посещении ничего не качать.

И все прекрасно работает ровно до того момента, пока что-то не изменится в конфетной базе: изменится цена, название, добавятся новые конфеты, удалятся старые итд. Что происходит довольно часто. «слепок» в localStorage быстро утрачивает свою актуальность и каждый раз приходится качать новый.

Максимум на что хватило полета моей фантазии, это разбить «слепок» на несколько поменьше, и выкачивать только измеившиеся части. Но может быть есть решение эффективнее? В идеале, докачка только изменений

Как бы вы реализовали нечто подобное?

 , , ,

Deleted ()

Завершение потока с блокирующим вызовом внутри

Уже всю голову сломал, Хотя проблема вроде тривиальная.

Предположим система предоставляет такие API:

 Receive(context); // blocking call until external event or Close
 Close(context); 

Close снимает с receive.

Есть функция потока и деструктор, который должен этот поток остановить :

thread() {
  while (!stop) {
    // ... (code 1)
    Receive(context);
    // ... (code 2)
  }
}

~() {
  stop = true;
  Close(context);
}

Деструктор должен дождаться завершения потока. Но как это сделать?

Ирония в том что если послать Close когда поток будет в состоянии (code1), то вызов Receive всё равно повиснет на бесконечном ожидании внешнего события.

Значит нужно послать Close или в состоянии Receive или в состоянии (code 2). Но как гарантировано дождаться входу в функцию Receive. Если вставить mutex и разблокировать его перед Receive, то состояние гонки всё ещё актуально ( между разблокировкой mutex и вызовом Receive может вызваться преславутый Close).

Найденный мной вариант решения проблемы - греть процессор :

thread() {
  Lock
  while (!stop) {
    // ... (code 1)
    Receive(context);
    Unlock
    // ... (code 2)
    Lock
  }
}

~() {
  stop = true;
  while !Try_lock() {
    Close(context);
  }
}

Таким образом из деструктора я буду долбить Close пока не попаду в code(2). И всё бы хорошо, но Close падает с segmentation fault на повторном вызове, и это ломает всю концепцию.

 , , , ,

letitbe ()

ntp игнорировать часовой пояс

Приветствую. Выставляю на устройстве часовой пояс UTC. Задаю текущее время допустим 15:50. Синхронизирую с севером ntp, после синхронизации время становится 12:50. Как заставить ntp игнорировать часовой пояс?

 , ,

splinter ()

Расскажите, пожалуйста, про APR

APR - это Apache Portable Runtime. Насколько я понял, это такая библиотека (.so-шка libapr.so), которую можно использовать в своих программах, и в которой есть обобщённый примитив синхронизации:
https://apr.apache.org/docs/apr/1.6/group__apr__proc__mutex.html
Моя проблема в том, что программа, использующая эту библиотеку выдаёт ошибку, что не может создать сегмент общей памяти (shred memory segment).
Я не понимаю, зачем для синхронизации такие сложности, и что надо сделать с ядром, чтобы в библиотеке APR вместо такого способа синхронизации использовалось что-нибудь попроще.

Также, мне непонятно, почему в документации версия 1.6, а по факту 0.5.2
/usr/lib64/libapr-1.so
/usr/lib64/libapr-1.so.0
/usr/lib64/libapr-1.so.0.5.2

 , ,

Einstok_Fair ()

lsyncd restart app

настроен lsyncd

sync {
        default.rsyncssh,
        source="/home/ttt/",
        host=server,
        targetdir="/srv/hhh/",
        exclude={
                        "/perl.pm",
                        "/c.so",
                        "/c.pm",
        },
        delay=10,
        rsync = {
                _extra = {"-e", "/usr/bin/ssh -p 2222 -i /root/.ssh/id_rsa -o StrictHostKeyChecking=no -o BatchMode=yes"}
        },
        ssh = {
                port = 2222
        }
}
end
все нормально синхронизируется, но как мне перезапускать мое приложение, если были изменены файлы, т.е. если в каталоге /home/ttt изменился файл, то на server в /srv/hhh мне надо перезапустить приложение?

 , ,

Garcia ()

как вы синхронизируете код между работой и домом?

Скорее речь идет не о коде проектов-проектов, которые всегда лежат в git, бекапятся и прочее, а о сопутствующем коде, к примеру собственном коде писанным дома для casual нужд и на работе, на нескольких работах.

У меня такого supplementary кода очень много, можно положить в одном месте и зашарить везеде, но помимо самого кода там много данных которые имеют значительный объём да и потом зачем шарить у каждого работодателя код который к примеру к нему не относится.. ну вы поняли.

Предлагаю обсудить подходы.

Заранее спасибо.

 , ,

VoDD87 ()

Синхронизация в P2P сети

Доброго времени суток. Можно ли где-то посмотреть алгоритм синхронизации данных в одноранговой сети с защитой от подмены этих данных? Например, если пиру нужен отсутствующий файл, то он запросит его на всех узлах и сохранит тот экземпляр, который имеется на большинстве узлов. Но ведь обращаться ко всем узлам неэффективно? Тогда каких будет достаточно? Механизм схож с блокчейном, если не ошибаюсь.

 , , ,

Rot1 ()