LINUX.ORG.RU

Избранные сообщения CeMKa

SIP в качестве мобильного оператора

Форум — Mobile

Реально ли зарегаться у любого VoIP-провайдера по емейлу, чтобы затем запустить Ekiga на ПК и звонить и SMS-иться без телеметрии и вот это вот всё?

 ,

ZenitharChampion
()

Spoofing ip

Форум — Admin

Насколько велика вероятность того, что запрос на сервер пришел с фейкового(подмененого) IP? Насколько я знаю, маршрутизаторы у ISP блокируют такие пакеты(если SRC изменен), то есть если клиенту выдали 3 IP, то в пакете SRC должен быть именно эти адреса, а не другие. Или есть такие ISP которые не делают таких проверок? Насколько их много?

 ,

gobot
()

Неистребимая nginx welcome page

Форум — Admin

Столкнулся со странной проблемой. Беру такой вот конфиг
https://www.collaboraoffice.com/code/nginx-reverse-proxy/
меняю порт на нестандартный, например 442 (или там 81, убирая ssl) и вижу только welcome page. Возвращаю порт на стандартный, но это проклятая страница, которой нет ни в одном конфиге начинает меня преследовать.
Че это вообще такое, из какого конфига она выползает ?
Я даже пробовал оставить конфиг коллаборы на сервере единственным, но и это не решает проблемы.

 ,

Deleted
()

Какой софт лучше выбрать для прокидывания порта

Форум — Admin

Приветствую всех.

Есть:

1. Машина Win с динамическим внешним ip - на ней стоит Apache.
2. Есть машина CentOS7 со статическим внешним ip - на ней стоит Nginx 
нужно - кидать http-запрос на машину CentOS7, далее Nginx должен перенаправлять запрос к машине Win на Apache, далее Apache отдает ответ назад Nginx, Nginx ответ конечному пользователю сделавшему запрос.

Какой вариант будет самым приемлемым, лучшим в плане простоты настройки, надежности связи без обрывов, быстродействия - пока что выделил из возможных SSH-туннель на машине Win и OpenVPN.

Самое главное - почему вообще такая схема - это потому, что на машине Win динамический внешний ip, а нужно из вне стабильно отправлять Http-запросы.

 , , , ,

stranger-ru
()

Linux Bolgenos - ее первые шаги и обсуждение

Форум — Development

Привет всем кто пользуется системой Linux! Я пишу систему (точнее собираю для нее дистрибутив,вскоре будет готова). Назвал ее Bolgenos. Дописал на qt4 программы для GNOME (пока это основная среда рабочего стола), добавил апплеты для панелей и переписал модуль загрузки на свой лад. Систему я делаю с нуля (не переделывая Debian или Ubuntu). В качестве шелла Bash, а загрузчик GRUB. Установщик для системы я написал, и работает он в графическом режиме. Будет ориентирована на российских пользователей (но английский я оставил).

Уважаемые пользователи Linux пишите то что Вы хотите увидеть в этой системе или как говорится ваши пожелания. По возможности постараюсь включить все в дистрибутив и сделать его как можно удобнее, обещаю его онлайн поддерживать :-)

P.S. в качестве личных переговоров вот мой e-mail quadregus@gmail.com

gromes
()

Mount.ntfs съедает всю оперативную память.

Форум — Admin

Добрый вечер. Возник вопрос. На сервере смонтирован жёсткий на 3тб в качестве резервного хранилища.ФС на этом диске - ntfs. Доступ к этому жесткому расшарен через самбу. На жёсткий делается бекап пользовательских win-машин,при помощи hdclone создаётся их образ. И проблема в том, что при создании этого образа на сервере процесс mount.ntfs начинает съедать всю доступную память. Это нормальное поведение? Можно ли как-то ограничить потребление памяти процессом?если да, то пожалуйста ткните в соответсвующий пункт мануала.

 ,

Mr_Jke
()

squid блокирует audit.gov.ru

Форум — Admin

Приветствую. Прошу помощи squid блокирует сайт audit.gov.ru
в конфигах все чисто, он не где не прописан...
Вот часть log файла:

( читать дальше... )

 ,

joy6oy
()

Прозрачное проксирование Squid HTTPS с купленным сертификатом?

Форум — Admin

Вопрос пока что исключительно в теоретической плоскости. Имеется Wi-Fi сеть, которую нужно жёстко контролировать и мониторить трафик. При этом потенциальные пользователи не отличаются интеллектуальными способностями, так что вариант с нормальным проксированием не прокатывает (не найдут на своих гаджетах, как это сделать). При этом прозрачное проксирование в режиме HTTPS по-сути имитирует MitM-атаку, что вынуждает добавлять ключ кальмара в ключницу устройства, что опять же, не вариант. Но при этом у организации есть официально купленный SSL-сертификат, который разрешили использовать в данных целях. Так вот, если его подпихивать при прозрачном проксировании, будут ли устройства клиентов жаловаться на сертификат?

 , , ,

Le_Raux
()

Netflow, не показывается входящий траффик за натом.

Форум — Admin

Есть ПК, для которого нужен список, куда ходит юзер.

ПК стоит за роутером. На роутере, схематически, внешний интерфейс eth0, все внутренние интерфейсы собраны в бридж br0.

Для сбора информации поднял ntop, куда отсылаю netflow на интерфейсе br0. Имею такую картину, что источником исходящего траффика являются компьютеры за роутером, а целью входящего - интерфейс eth0. То есть входящий траффик у компьютеров нулевой. Можно ли каким-либо образом это исправить?

 ,

l0stparadise
()

Не работает multicast в point to multipoint GRE тоннеле

Форум — Admin

Приветствую. Что имеем
3 машины для тестирования, на них следующий конфиг сети, последний октет меняется от 1 до 3:

auto eth1
iface eth1 inet static
  address 192.168.100.1
  netmask 255.255.255.0

auto gre1
iface gre1 inet static
  pre-up ip tunnel add $IFACE mode gre ttl 64 tos inherit key 1001 || true
  address 10.42.43.1
  netmask 255.255.255.0
  post-up ip link set $IFACE multicast on || true
  post-up ip link set $IFACE mtu 1420 || true
  post-down ip tunnel del $IFACE || true
  post-up ip neigh add 10.42.43.2 lladdr 192.168.100.2 dev gre1
  post-up ip neigh add 10.42.43.3 lladdr 192.168.100.3 dev gre1
  post-up  ip route add 224.0.0.0/4 dev $IFACE
  pre-down ip route del 224.0.0.0/4 dev $IFACE

Но проще это представить в виде команд ip

ip tunnel add gre1 mode gre ttl 64 tos inherit key 1001
ip link set dev gre1 up
ip link set dev gre1 multicast on
ip link set dev gre1 mtu 1420
ip addr add 10.42.43.1/24 broadcast 10.42.43.255 dev gre1

ip neigh add 10.42.43.2 lladdr 192.168.100.2 dev gre1
ip neigh add 10.42.43.3 lladdr 192.168.100.3 dev gre1

ip a s gre1
7: gre1@NONE: <MULTICAST,UP,LOWER_UP> mtu 1420 qdisc noqueue state UNKNOWN group default
    link/gre 0.0.0.0 brd 0.0.0.0
    inet 10.42.43.1/24 brd 10.42.43.255 scope global gre1
       valid_lft forever preferred_lft forever
ip neigh show dev gre1
10.42.43.3 lladdr 192.168.100.3 PERMANENT
10.42.43.2 lladdr 192.168.100.2 PERMANENT

Проверим что пакеты ходят в принципе

ping 10.42.43.2
PING 10.42.43.2 (10.42.43.2) 56(84) bytes of data.
64 bytes from 10.42.43.2: icmp_seq=1 ttl=64 time=0.818 ms

ping 10.42.43.3
PING 10.42.43.3 (10.42.43.3) 56(84) bytes of data.
64 bytes from 10.42.43.3: icmp_seq=1 ttl=64 time=0.361 ms

Проверяем мультикаст с помощь ssmping, на 10.42.43.2-3 запускаем ssmpingd, c 10.42.43.1 пингуем:

ssmping 10.42.43.2
ssmping joined (S,G) = (10.42.43.2,232.43.211.234)
pinging S from 10.42.43.1
  unicast from 10.42.43.2, seq=1 dist=0 time=1.289 ms
  unicast from 10.42.43.2, seq=2 dist=0 time=1.017 ms

ssmping 10.42.43.3
ssmping joined (S,G) = (10.42.43.3,232.43.211.234)
pinging S from 10.42.43.1
  unicast from 10.42.43.3, seq=1 dist=0 time=0.680 ms
  unicast from 10.42.43.3, seq=2 dist=0 time=0.763 ms
Никакого мультикаста.

Для пробы делаем так ip route replace 224.0.0.0/4 dev eth1 на каждом хосте. Запускаем ssmpingd, проверям:

ssmping 192.168.100.2 -c 1
ssmping joined (S,G) = (192.168.100.2,232.43.211.234)
pinging S from 192.168.100.1
  unicast from 192.168.100.2, seq=1 dist=0 time=0.548 ms
multicast from 192.168.100.2, seq=1 dist=0 time=0.556 ms

ssmping 192.168.100.3 -c 1
ssmping joined (S,G) = (192.168.100.3,232.43.211.234)
pinging S from 192.168.100.1
  unicast from 192.168.100.3, seq=1 dist=0 time=0.549 ms
multicast from 192.168.100.3, seq=1 dist=0 time=0.557 ms

Проблема
Суть отражена в заголовке. Если настроить обычные p2p GRE тоннели с явным указанием конечных точек подключения - то мультикаст отлично в таком тоннеле ходит. Минус обычных тоннелей в тоннах конфигов на каждой машине, и кроме того если соединить хотя бы 3 машины в сеть «каждый с каждым», то правила вроде ip route add 224.0.0.0/4 dev gre1 уже недостаточно нам ведь надо отправлять мультикаст во все туннели. На данный момент я даже не представляю как это реализуется, но это тема отдельного вопроса.

 , , ,

Hatifnatt
()