Есть пачка нод какого-то приложения, которые что-то пишут на главную мастер ноду. Между главной нодой и этой пачкой - большой кусачий интернет. Я ищу уже готовые решения, которые можно было бы использовать для накопления данных на нодах, не изменяя ПО а только натройки отправки, и отправкой их на мастер ноду при первой же возможности. Этакий прокси-конденсатор.
Хоть задача кажется и простой с точки зрения программирования - но по опыту знаю что там докучи вылезет приколов.
Рядом в другой вклядке действительно висел открытый сайт группы ddt.
Вопрос: это такой новый способ трэкинга пользователей или это какой-то хитрый баг лисы. Проявляется иногда с другими сайтами которые юзают свои шрифты.
Имеется 2 lxc контейнера. В них установлен base из archlinux + в каждом firefox с причитанием.
В каждом контейнере проброшены /dev/dri, /dev/net, /dev/snd и /tmp
Если в контейнере 1 запустить firefox через DISPLAY=:0 firefox, то на хостовых иксах появится новый firefox. При этом если в последующем в контейнере 2 выполнить эту же команду, то откроется просто новое окно от firefox из первого контейнера.
Вот как-то понадобилось, что то такое:
readline-интерактивный рекурсивный поиск по файлам, с отслеживанием изменений, и поиску по уже найденным файлам в предыдущем поиске.
Мне уже давно задолбало слушать как воет кулер(самсунг кривые инжинеры) в моём буке, при том что работаю сейчас больше частью с не нагружающими консольными приложениями.
Думаю взять какую новую железку. Но когда я увидел, что большинство не- и дорогих буков всёравно идёт с кулерами, прифигел. Особенно меня удивило, что все машинки той ценовой и габаритной категории идут с разрешением 1366x768 (дядя Билл видимо проплачивает) + TN.
Посоветуйте переносное(планшет,бук) железо, безкулерное, с нормальной матрицей, для мультиконсольной работы с IPS. архитектура не важна.
Смотрел хромбуки - но непонятно насколько реально их юзать с арчем или той же бубунтой.
Недавно выполнял одну задачу по работе. Суть её сводилась к следующему:
# псевдокод
for domain in list_of_domains {
exec "dig +short a $domain";
}
Этот код был запущен в несколько процессов.
Доменов было много, не все имели NS или A, и через какое-то время зайти на какой-то сайт в браузере оказывалось невозможным. Хотя паралельно висящие коннекты на vnc сервера работали отлично.
Одновременно с другого компьютера всё открывалось и резолвилось нормально.
Вопрос в следующем: я подозреваю, что перебором доменов просто заполняю где-то какой-то кэш, как увеличить его размер?
Есть подозрение, что в /proc/sys/net/bla-bla-bla/ есть какой-то size или limit, который можно подкрутить.
На дворе почти 2014, в большинстве графических web-обозревателей встроили приватный режим, который призван защитить родителей от нервного шока при просмотре истории посещений на семейном компьютере.
Основной фишкой приватного режима является то, что история не пишется.
А теперь делаем финт ушами: в приватном режиме идём на любой злачный сайт, и печатаем его страницу из обозревателя на принтере. Взяв в руки распечатку вы почти всегда увидите в колонтитулах (если они не были отменены руками) ссылку на ту страницу которую вы распечатали. Т.е. даже находясь в приватном режиме вы зафиксировали тот факт, что вы были на каком-то сайте.
Косячок-с!
С другой стороны, ни один известный мне браузер до сих пор не реализовал API для показа или скрытия колонтитулов при печати.
Такие дела.
P.S. Некоторые недальновидные веб-сайты держат сессионный или аутентификационный хэш в урле - потому даже в приватном режиме можно на пустом месте угнать акк прочитав url с бумаги.
Есть база данных(от другого приложения) из которой приложение на рельсах должно будет выгребать данные и отдавать другой базе.
При выборке данных из 1 их надо обработать напильником, жестоко.
Идеологический вопрос состоит в том, что непонятно где, по идее, должна производится такая обработка - в моделе, контроллере, или надо использовать что-то ещё?