LINUX.ORG.RU

Сообщения pvvking

 

Samba shadow_copy2 нет теневых копий.

Форум — Admin

Настроил samba все нормально работает проблем нет. Но захотелось прикрутить теневые копии. Все получилось. Но есть непонятки или так и должно быть или где-то я накосячил. Если смотреть на «Папочки windows» то у них есть эти самые теневые копии. А вот если на файлик то их НЕТ. Вот и вопрос так и должно быть или нет.

# Global parameters smb.conf
[global]
        workgroup = workgroup 
        map to guest = Bad User
        unix extensions = No
        wide links = Yes


[OPT_share]
        path = /opt/share
        read only = No
        guest ok = Yes
        vfs objects = shadow_copy2
        shadow:format = %Y.%m.%d-%H.%M.%S
        shadow:sort = desc
        shadow:localtime = yes
        shadow:snapdir = /opt/.zfs/snapshot

 ,

pvvking
()

Поиск bios к серверу Intel sr2500albrp

Форум — Linux-hardware

Достался старенький сервер. Старый хозяин прошил биос и fru все что можно было. И как я предполагаю он неправильно указал корпус по этому все 6 вентиляторов работают на всю. В биосе что только не выставлял.И так что имеем

Корпус sr2500albrp
Системная плата Intel S5000PAL0
BIOS Date: 06/20/09 11:57:51 Ver: 08.00.10
FRU Ver 0.05
Поиски по google все ведут на старые ссылки на сайт Intel ну а там 404. Прошу помоши может у когонибудь есть образ CD или сама прошивка.

 ,

pvvking
()

proxmox 5.2 zfs, живая миграция ошибка.

Форум — Admin

Ситуация такая, все норм работает на ceph и на внешнем сторадже все мигрирует на живую т.е. не выключая вирт. машину, но вот если мы попробуем мигрировать вирт. машину (которая работает) из GUI и если у нее диск на zfs то получаю ошибку. Если вирт. машина off то все нормально мигрируется из GUI

2018-08-30 13:35:22 starting migration of VM 100 to node '02pve' (192.168.28.72)
2018-08-30 13:35:22 found local disk 'local-zfs:vm-100-disk-1' (in current VM config)
2018-08-30 13:35:22 can't migrate local disk 'local-zfs:vm-100-disk-1': can't live migrate attached local disks without with-local-disks option
2018-08-30 13:35:22 ERROR: Failed to sync data - can't migrate VM - check log
2018-08-30 13:35:22 aborting phase 1 - cleanup resources
2018-08-30 13:35:22 ERROR: migration aborted (duration 00:00:01): Failed to sync data - can't migrate VM - check log
TASK ERROR: migration aborted
Но если воспользоваться командой из консоли
root@01pve:/etc# qm migrate 100 02pve  --online --with-local-disks
2018-08-30 13:36:44 starting migration of VM 100 to node '02pve' (192.168.28.72)
2018-08-30 13:36:44 found local disk 'local-zfs:vm-100-disk-1' (in current VM config)
2018-08-30 13:36:44 copying disk images
2018-08-30 13:36:44 starting VM 100 on remote node '02pve'
2018-08-30 13:36:47 start remote tunnel
2018-08-30 13:36:48 ssh tunnel ver 1
2018-08-30 13:36:48 starting storage migration
2018-08-30 13:36:48 scsi0: start migration to nbd:192.168.28.72:60000:exportname=drive-scsi0
drive mirror is starting for drive-scsi0
drive-scsi0: transferred: 52428800 bytes remaining: 2095054848 bytes total: 2147483648 bytes progression: 2.44 % busy: 1 ready: 0
drive-scsi0: transferred: 257949696 bytes remaining: 1889533952 bytes total: 2147483648 bytes progression: 12.01 % busy: 1 ready: 0
drive-scsi0: transferred: 461373440 bytes remaining: 1686110208 bytes total: 2147483648 bytes progression: 21.48 % busy: 1 ready: 0
drive-scsi0: transferred: 685768704 bytes remaining: 1461714944 bytes total: 2147483648 bytes progression: 31.93 % busy: 1 ready: 0
drive-scsi0: transferred: 851443712 bytes remaining: 1296039936 bytes total: 2147483648 bytes progression: 39.65 % busy: 1 ready: 0
drive-scsi0: transferred: 1289748480 bytes remaining: 857735168 bytes total: 2147483648 bytes progression: 60.06 % busy: 1 ready: 0
drive-scsi0: transferred: 1457520640 bytes remaining: 689963008 bytes total: 2147483648 bytes progression: 67.87 % busy: 1 ready: 0
drive-scsi0: transferred: 1670381568 bytes remaining: 477102080 bytes total: 2147483648 bytes progression: 77.78 % busy: 1 ready: 0
drive-scsi0: transferred: 1960837120 bytes remaining: 186646528 bytes total: 2147483648 bytes progression: 91.31 % busy: 1 ready: 0
drive-scsi0: transferred: 2112880640 bytes remaining: 34603008 bytes total: 2147483648 bytes progression: 98.39 % busy: 1 ready: 0
drive-scsi0: transferred: 2147483648 bytes remaining: 0 bytes total: 2147483648 bytes progression: 100.00 % busy: 0 ready: 1
all mirroring jobs are ready
2018-08-30 13:37:02 starting online/live migration on unix:/run/qemu-server/100.migrate
2018-08-30 13:37:02 migrate_set_speed: 8589934592
2018-08-30 13:37:02 migrate_set_downtime: 0.1
2018-08-30 13:37:02 set migration_caps
2018-08-30 13:37:02 set cachesize: 67108864
2018-08-30 13:37:02 start migrate command to unix:/run/qemu-server/100.migrate
2018-08-30 13:37:03 migration speed: 34.13 MB/s - downtime 13 ms
2018-08-30 13:37:03 migration status: completed
drive-scsi0: transferred: 2147483648 bytes remaining: 0 bytes total: 2147483648 bytes progression: 100.00 % busy: 0 ready: 1
all mirroring jobs are ready
drive-scsi0: Completing block job...
drive-scsi0: Completed successfully.
drive-scsi0 : finished
2018-08-30 13:37:08 migration finished successfully (duration 00:00:24)
root@01pve:/etc#
Как мы видем все нормально и без ошибок. Поиски привели к следующему Патч проверил у себя все что в патче уже есть в тек. версии PVE Manager Version pve-manager/5.2-8/fdf39912. Также прочитал вот это но вопрос так и не решился.
Тестовый стенд чистый установленный proxmox 5.2 обновлен до тек состояния две ноды, одна вирт. машина
p.s. из консоли работает!!!

 ,

pvvking
()

proxmox 5.2 графики

Форум — Admin

График. Как так то? Сетевка стоит 1G (с обеих сторон, прямой линк, нет хаба или свитча ну и т.п.), zabbix рисует норм график (стоит агент), а вот сам proxmox только до 100M-120M ну чуть боле но не 1G (рисует график, пропускает все нормально 1G). iptraf тоже выдает реальные 1G.

 ,

pvvking
()

ipv4+ipv6+dhcp+igmp = рассыпание картинки по iptv (т.е. ip-tv от провайдера)

Форум — Admin

Ну вопрос в теме. Теперь по подробней
1. роутер (openwrt 15.05 да старая но работала же)
1.1 ipv6 forward,input drop all (да пров дает ном ipv6 адреса, пробывал работает )
1.2 ipv4 forward,input drop all
1.3 т.е. только из локали можно
1.4 igmp настроенно и работае (но стал рассыпаться)
2. локальные компы все подключенны ШНУРКОМ не WIFI сеть 1G
2.1 win 10 (не спрашивайте по чему)
2.2 KODI 17.6 (телевизор)
2.3 debian 9.5 (ноут)
2.4 proxmox 5.2 (не кушает igmp)
Ну и сам вопрс, если всем кто в пункте 2 раздать ip адреса по dhcp от роутера то картинка на 2.1 и 2.2 и 2.3 сыплется даже если один клиент, но если всем установит статику и ipv4 и ipv6 то все норм становится, не на одном не сыпится, даже если все тянут одновременно не один (разные) канал(ы)

1 пункт.
Имя хоста	OpenWrt
Model	TP-Link TL-WR1043N/ND v1
Версия прошивки	OpenWrt Chaos Calmer 15.05 / LuCI Master (git-15.233.47308-791ca8b)
Версия ядра	3.18.20
Местное время	Tue Jul 24 21:59:58 2018
Время работы	17d 0h 41m 19s
Средняя загрузка	0.31, 0.68, 0.44

 , , ,

pvvking
()

Proxmox 5.1 падает сеть lxc контейнер роутер

Форум — Admin

Имеем
1.proxmox 5.1 ip 192.168.28.254/24 gw 192.168.28.2 vlan 28 одна сетевая подключена к cisco asa 5505 vlan 28,128,228.
2.lxc контейнер с тремя интерфейсам типа роутер
ip 192.168.28.2/24 gw 192.168.28.1 vlan 28
ip 192.168.128.2/24 vlan 128
ip 192.168.228.2/24 vlan 228
Как только включаю контейнер происходит падение сети полностью, сперва недоступен контейнер потом и сам proxmox. Комп с которого все делаю тоже на vlan 28. На cisco в логах все нормально, порт не отваливался. Спустя минуту другую proxmox становится виден а вот контейнер уже нет пока его не перезагрузить, ну а потом все по кругу. Есть типа такой машины на esx 6.5 которую хочу перевести на proxmox. Если сменить адреса на 192.168.28.3 128.3 228.3 то все работает и не чего не валится, как только так сказать даю нагрузку т.е. заменяю шлюз который на esx все валится.
В логах сыплется лог lxc контейнера

Mar 27 08:31:31 router kernel: [142128.619265] e1000e 0000:00:19.0 eno1: Detected Hardware Unit Hang:
Mar 27 08:31:31 router kernel: [142128.619265]   TDH                  <3c>
Mar 27 08:31:31 router kernel: [142128.619265]   TDT                  <42>
Mar 27 08:31:31 router kernel: [142128.619265]   next_to_use          <42>
Mar 27 08:31:31 router kernel: [142128.619265]   next_to_clean        <37>
Mar 27 08:31:31 router kernel: [142128.619265] buffer_info[next_to_clean]:
Mar 27 08:31:31 router kernel: [142128.619265]   time_stamp           <1021cfece>
Mar 27 08:31:31 router kernel: [142128.619265]   next_to_watch        <3c>
Mar 27 08:31:31 router kernel: [142128.619265]   jiffies              <1021d05b0>
Mar 27 08:31:31 router kernel: [142128.619265]   next_to_watch.status <0>
Mar 27 08:31:31 router kernel: [142128.619265] MAC Status             <80083>
Mar 27 08:31:31 router kernel: [142128.619265] PHY Status             <796d>
Mar 27 08:31:31 router kernel: [142128.619265] PHY 1000BASE-T Status  <3800>
Mar 27 08:31:31 router kernel: [142128.619265] PHY Extended Status    <3000>
Mar 27 08:31:31 router kernel: [142128.619265] PCI Status             <10>
Mar 27 08:31:33 router kernel: [142130.603276] e1000e 0000:00:19.0 eno1: Detected Hardware Unit Hang:
Mar 27 08:31:33 router kernel: [142130.603276]   TDH                  <3c>
Mar 27 08:31:33 router kernel: [142130.603276]   TDT                  <42>
Mar 27 08:31:33 router kernel: [142130.603276]   next_to_use          <42>
Mar 27 08:31:33 router kernel: [142130.603276]   next_to_clean        <37>
Mar 27 08:31:33 router kernel: [142130.603276] buffer_info[next_to_clean]:
Mar 27 08:31:33 router kernel: [142130.603276]   time_stamp           <1021cfece>
Mar 27 08:31:33 router kernel: [142130.603276]   next_to_watch        <3c>
Mar 27 08:31:33 router kernel: [142130.603276]   jiffies              <1021d07a0>
Mar 27 08:31:33 router kernel: [142130.603276]   next_to_watch.status <0>
Mar 27 08:31:33 router kernel: [142130.603276] MAC Status             <80083>
Mar 27 08:31:33 router kernel: [142130.603276] PHY Status             <796d>
Mar 27 08:31:33 router kernel: [142130.603276] PHY 1000BASE-T Status  <3800>
Mar 27 08:31:33 router kernel: [142130.603276] PHY Extended Status    <3000>
Mar 27 08:31:33 router kernel: [142130.603276] PCI Status             <10>
Mar 27 08:31:33 router kernel: [142130.731238] vmbr0: port 1(eno1) entered disabled state
Mar 27 08:31:40 router kernel: [142137.689457] vmbr0: port 1(eno1) entered blocking state
Mar 27 08:32:54 router kernel: [142211.596952] e1000e 0000:00:19.0 eno1: Detected Hardware Unit Hang:
Mar 27 08:32:54 router kernel: [142211.596952]   TDH                  <c3>
Mar 27 08:32:54 router kernel: [142211.596952]   TDT                  <e8>
Mar 27 08:32:54 router kernel: [142211.596952]   next_to_use          <e8>
Mar 27 08:32:54 router kernel: [142211.596952]   next_to_clean        <c1>
Mar 27 08:32:54 router kernel: [142211.596952] buffer_info[next_to_clean]:
Mar 27 08:32:54 router kernel: [142211.596952]   time_stamp           <1021d540f>
Mar 27 08:32:54 router kernel: [142211.596952]   next_to_watch        <c3>
Mar 27 08:32:54 router kernel: [142211.596952]   jiffies              <1021d56b8>
Mar 27 08:32:54 router kernel: [142211.596952]   next_to_watch.status <0>
Mar 27 08:32:54 router kernel: [142211.596952] MAC Status             <80083>
Mar 27 08:32:54 router kernel: [142211.596952] PHY Status             <796d>
Mar 27 08:32:54 router kernel: [142211.596952] PHY 1000BASE-T Status  <7800>
Mar 27 08:32:54 router kernel: [142211.596952] PHY Extended Status    <3000>
Mar 27 08:32:54 router kernel: [142211.596952] PCI Status             <10>
лог proxmox
Mar 27 08:27:18 pvexeon kernel: [141875.223931] e1000e: eno1 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
Mar 27 08:29:27 pvexeon kernel: [142004.616645] e1000e 0000:00:19.0 eno1: Detected Hardware Unit Hang:
Mar 27 08:29:27 pvexeon kernel: [142004.616645]   TDH                  <dc>
Mar 27 08:29:27 pvexeon kernel: [142004.616645]   TDT                  <4>
Mar 27 08:29:27 pvexeon kernel: [142004.616645]   next_to_use          <4>
Mar 27 08:29:27 pvexeon kernel: [142004.616645]   next_to_clean        <da>
Mar 27 08:29:27 pvexeon kernel: [142004.616645] buffer_info[next_to_clean]:
Mar 27 08:29:27 pvexeon kernel: [142004.616645]   time_stamp           <1021c8975>
Mar 27 08:29:27 pvexeon kernel: [142004.616645]   next_to_watch        <dc>
Mar 27 08:29:27 pvexeon kernel: [142004.616645]   jiffies              <1021c8c98>
Mar 27 08:29:27 pvexeon kernel: [142004.616645]   next_to_watch.status <0>
Mar 27 08:29:27 pvexeon kernel: [142004.616645] MAC Status             <80083>
Mar 27 08:29:27 pvexeon kernel: [142004.616645] PHY Status             <796d>
Mar 27 08:29:27 pvexeon kernel: [142004.616645] PHY 1000BASE-T Status  <7800>
Mar 27 08:29:27 pvexeon kernel: [142004.616645] PHY Extended Status    <3000>
Mar 27 08:29:27 pvexeon kernel: [142004.616645] PCI Status             <10>

 ,

pvvking
()

జ్ఞ‌ా Убивает iPhone и MacBook.

Форум — Talks

Как так то. И что с этим делать.

 ,

pvvking
()

skype замена на что?

Форум — Admin

Что нужно.
1(обязательно)
1.1 Клиент Linux, windows
1.2 Передача текста (оф лайн если клиент не доступен)
1.3 Передача файлов (оф лайн если клиент не доступен)
1.4 Передача контактов (исли нет то не критично но нужно)
1.5 Стабильность работы
2(не обязательно)
2.1 Дружесвенный интерфейс (хочется на русском, и шкурками сделать под фиру)
2.2 Свой сервер (linux)
2.3 Шифрование
2.4 Регистрация через web (ps. админ панель)
3(не нужно ну если есть то пусть будет)
3.1 Демонстрация экрана
3.2 Видео, голос
3.3 Прочие плюшки как у этой дряни skype

Спасибо.

 

pvvking
()

proxmox node

Форум — Admin

proxmox-ve: 5.1-35
lxc-pve: 2.1.1-2
lxcfs: 2.0.8-1
Запускаю в lxc контейнере node init.js получаю

root@node:~/nodetest# node init.js
[2018-01-10 11:46:25.975] [INFO] [default] - New Relic
[2018-01-10 11:46:25.977] [DEBUG] [default] - NewRelic Monitor New Relic initiated
[2018-01-10 11:46:26.028] [INFO] [default] - Setting POSIX
[2018-01-10 11:46:26.028] [INFO] [default] - POSIX Set
node: ../deps/uv/src/unix/linux-core.c:633: read_times: Assertion `num == numcpus' failed.
Aborted
также если просто в консоли набрать node -e "var cpuCount = require('os').cpus().length;"
root@node:~/nodetest# node -e "var cpuCount = require('os').cpus().length;"
node: ../deps/uv/src/unix/linux-core.c:633: read_times: Assertion `num == numcpus' failed.
Aborted
Конфиг контейнера
cat 902.conf

arch: amd64
cores: 8
hostname: nodetest
memory: 4096
net0: name=eth0,bridge=vmbr0,gw=192.168.128.1,hwaddr=D6:FA:2E:03:24:A5,ip=192.168.128.100/24,type=veth
ostype: ubuntu
rootfs: tanksas:subvol-902-disk-1,size=65G
swap: 4096
Что можно придумать. Спасибо.

 ,

pvvking
()

Новый год!!! Подарок!!!

Форум — Talks

Фото подарок на новый год ТУКС на льдине, светится разными цветами. Самогончик с лева. Ну и стол на двоих. (нет тега `новый год`)

 

pvvking
()

proxmox восклицательный знак

Форум — Admin

Столкнулся в первые и не могу нагуглить что это значит. рис

 

pvvking
()

Странное поведение кулеров proxmox 5

Форум — Linux-hardware

Собственно обновился до proxmox 5 с ядром которое в установочной CD 4.10.17-2-pve все кулеры работают в нормальном режиме. Обновился до последнего ядра 4.13.4-1-pve и кулеры после биоса сбрасывают обороты как и положено, система загрузилась проходит минуту другую кулеры врубаются на полную как при запуске в биосе, при этом начинает моргать жёлтым светодиод с ошибкой на корпусе. Мать intel S5000VSA. Проц Intel(R) Xeon(R) CPU E5410@ 2.33GHz

 ,

pvvking
()

LXC как определить что изменилось количество ядер

Форум — Admin

Есть proxmox 5 на нем развернут контейнер в котором есть openstreetmap с обновлениями, в рабочие часы контейнеру даю только 4 ядра, в ночное время 16 перезапускать по крону процесс который обновляет как то не хочется, как определить если сменилось количество ядер то запустить скрипт.

 ,

pvvking
()

postgresql openstreetmap посыпались WARNING

Форум — Admin
WARNING:  there is no transaction in progress
Committing transaction for planet_osm_point
WARNING:  there is no transaction in progress
Committing transaction for planet_osm_line
WARNING:  there is no transaction in progress
Committing transaction for planet_osm_polygon
WARNING:  there is no transaction in progress
Committing transaction for planet_osm_roads
WARNING:  there is no transaction in progress

Понятно что WARNING но вот что делать не могу понять. Может кто сталкивался. Спасибо.

 ,

pvvking
()

Реально так загрузить карту мира

Форум — Talks

Развернул свой сервер openstreetmap загрузил только Россию включил обновления каждый час (все как обычно), теперь задумался а отрисуется вся карта МИРА через сколько по времени. Оно понятно, что зависит от того как часто тот или иной кусок карты редактируют. Но вопрос сколько по времени. Сервер слабоват могут быть тормоза!

 

pvvking
()

Cooling Fan 46D0338, питание

Форум — Linux-hardware

Возможно ли данный вентилятор подключить к разъему на матери 4 пин. Если да то подскажите как. Желательно с управлением скоростью вращения.

 

pvvking
()

Один интерфейс два шлюза

Форум — Admin

Схема сети

            роутер                         шлюз №1
eth1                 eth0               /-192.168.28.17/24 <-> инет реал ip
192.168.111.1/24<NAT>192.168.28.16/24 -|  шлюз №2
                                        \-192.168.28.1/24  <-> инет реал ip 
роутер linux route default gw 192.168.28.1 вопрос КАК пингануть с 192.168.28.16 адреса адрес 8.8.8.8 через №1 шлюз и №2 шлюз на шлюзах нат и это разные железки все в одной подсети route default gw дергать для проверки не хочется если находимся на резерве. Вот накидал скриптик вроде как работает
#!/bin/sh
# IP адрес кого пингуем
DSTIP='8.8.8.8'
# основной шлюз MAC адрес
MAC0='d0:d0:fd:0f:6d:81'

ICMP=`./nping -c 2 --icmp --dest-mac $MAC0 $DSTIP |grep packets|awk '{print $12}'`
#echo $ICMP
if [ $ICMP = 2 ]; then
{
    #echo 'Резерв'
    ip route change default via 192.168.28.17
}
fi
if [ $ICMP = 0 ];then
{
    #echo 'Основной'
    ip route change default via 192.168.28.1
}
fi
exit
Критика и замечания приветствуются.

 

pvvking
()

LXC=Linux+1с+asterisk+freepbx=>web

Форум — Development

1с + Linux + asterisk + freepbx = web
Все работает без dll на сервере.
http://pvvking.ru/1c/phone/ru_RU/
Звонок точно бесплатный. Регион ЕКБ.
http://pvvking.ru/1c/geo/ru_RU/
Ну просто так все работает локально.

 , ,

pvvking
()

rsync только атрибуты и хозяина

Форум — Admin

Как бывает сперва делаем потом думаем. Но не суть. Сделал копию lxc контейнера на удаленный хост через rsync и забыл про атрибуты. Запустил контейнер с горем но запустил. Оригинал остановил (не тронут после копирования), а вот копия уже успела поработать и много. И вот теперь встал вопрос как поправить атрибуты файлов и хозяина.

копия
drwxrwxrwx 22 nobody nogroup 4096 июн 21 17:32 .
drwxrwxrwx  3 nobody nogroup 4096 июн 21 17:32 ..
drwxr-xr-x  2 nobody nogroup 4096 июн  6 14:31 bin
drwxr-xr-x  2 nobody nogroup 4096 янв  6 20:18 boot
drwxr-xr-x  4 nobody nogroup 4096 фев  1 03:52 dev
drwxr-xr-x 69 nobody nogroup 4096 июл  5 12:11 etc
drwxr-xr-x  2 nobody nogroup 4096 янв  6 20:18 home
drwxr-xr-x 10 nobody nogroup 4096 фев  1 03:52 lib
drwxr-xr-x  2 nobody nogroup 4096 июн  6 14:31 lib64
drwxr-xr-x  2 nobody nogroup 4096 фев  1 03:52 media
drwxr-xr-x  2 nobody nogroup 4096 фев  1 03:52 mnt
drwxrwxrwx  4 nobody nogroup 4096 мар 28 11:28 opt
drwxr-xr-x  2 nobody nogroup 4096 янв  6 20:18 proc
drwx------  6 nobody nogroup 4096 мар 30 14:55 root
drwxr-xr-x  5 nobody nogroup 4096 фев  2 15:43 run
drwxr-xr-x  2 nobody nogroup 4096 июн  6 14:32 sbin
drwxr-xr-x  2 nobody nogroup 4096 фев  1 03:52 selinux
drwxr-xr-x  2 nobody nogroup 4096 фев  1 03:52 srv
drwxr-xr-x  2 nobody nogroup 4096 апр  6  2015 sys
drwxrwxrwt  8 root   root    4096 июл  6 08:53 tmp
drwxr-xr-x 10 nobody nogroup 4096 фев  1 03:52 usr
drwxr-xr-x 12 nobody nogroup 4096 мар 28 11:30 var

оригинал
drwxrwxrwx 22 root root 4096 июн 21 17:28 .
drwxrwxrwx  3 root root 4096 июн 21 17:28 ..
drwxr-xr-x  2 root root 4096 мар 28 11:30 bin
drwxr-xr-x  2 root root 4096 янв  6 20:18 boot
drwxr-xr-x  4 root root 4096 фев  1 03:52 dev
drwxr-xr-x 68 root root 4096 май  5 09:42 etc
drwxr-xr-x  2 root root 4096 янв  6 20:18 home
drwxr-xr-x 10 root root 4096 фев  1 03:52 lib
drwxr-xr-x  2 root root 4096 фев  1 03:52 lib64
drwxr-xr-x  2 root root 4096 фев  1 03:52 media
drwxr-xr-x  2 root root 4096 фев  1 03:52 mnt
drwxrwxrwx  4  777 root 4096 мар 28 11:28 opt
drwxr-xr-x  2 root root 4096 янв  6 20:18 proc
drwx------  6 root root 4096 мар 30 14:55 root
drwxr-xr-x  5 root root 4096 фев  2 15:43 run
drwxr-xr-x  2 root root 4096 фев  1 03:52 sbin
drwxr-xr-x  2 root root 4096 фев  1 03:52 selinux
drwxr-xr-x  2 root root 4096 фев  1 03:52 srv
drwxr-xr-x  2 root root 4096 апр  6  2015 sys
drwxrwxrwt  7 root root 4096 июн 22 08:11 tmp
drwxr-xr-x 10 root root 4096 фев  1 03:52 usr
drwxr-xr-x 12 root root 4096 мар 28 11:30 var

Не нужно файлы заменять и добавлять если их нет на копии. Только атрибуты и хозяина у существующих на оригинале поставить на копии.

 

pvvking
()

Squid лог https запросов

Форум — Admin

Доброго времени суток. Настроил squid прозрачный по раз два все нормально работает но вот лог не совсем нравится

https
1464247555.219     66 192.168.28.33 TAG_NONE/200 0 CONNECT 94.100.180.59:443 - HIER_NONE/- -
1464247555.219     58 192.168.28.33 TCP_TUNNEL/200 0 CONNECT 94.100.180.59:443 - ORIGINAL_DST/94.100.180.59 -
1464247555.285     64 192.168.28.33 TAG_NONE/200 0 CONNECT 94.100.180.59:443 - HIER_NONE/- -
1464247555.285     59 192.168.28.33 TCP_TUNNEL/200 0 CONNECT 94.100.180.59:443 - ORIGINAL_DST/94.100.180.59 -
1464247555.429     61 192.168.28.33 TAG_NONE/200 0 CONNECT 94.100.180.59:443 - HIER_NONE/- -
1464247555.429     60 192.168.28.33 TCP_TUNNEL/200 7 CONNECT 94.100.180.59:443 - ORIGINAL_DST/94.100.180.59 -
1464247555.852 270684 192.168.28.33 TAG_NONE/200 0 CONNECT 217.20.155.58:443 - HIER_NONE/- -
1464247555.852 270681 192.168.28.33 TCP_TUNNEL/200 3979 CONNECT 217.20.155.58:443 - ORIGINAL_DST/217.20.155.58 -

http
1464247637.383     48 192.168.28.33 TCP_MISS/200 2256 GET http://ads.adfox.ru/171817/prepareCode? - ORIGINAL_DST/213.180.204.92 application/x-javascript
1464247637.418     33 192.168.28.33 TCP_MISS/302 491 GET http://sync.rambler.ru/emily? - ORIGINAL_DST/81.19.77.14 text/html
1464247637.437    132 192.168.28.33 TCP_MISS/200 440 GET http://cntcerber.rambler.ru/cnt/0.0.5/rambler.head/1578005263/1464247637.297-677784990? - ORIGINAL_DST/81.19.89.17 image/gif
1464247637.448     62 192.168.28.33 TCP_MISS/302 514 GET http://sync.rambler.ru/emily? - ORIGINAL_DST/81.19.77.14 text/html
1464247637.450     63 192.168.28.33 TCP_MISS/302 567 GET http://sync.rambler.ru/emily? - ORIGINAL_DST/81.19.77.14 text/html
1464247637.456    148 192.168.28.33 TCP_MISS/204 345 GET http://b.scorecardresearch.com/b? - ORIGINAL_DST/88.221.132.50 -
1464247637.547     36 192.168.28.33 TCP_MISS/200 53937 GET http://h03.rl0.ru/3.21.90/js/head.min.js - ORIGINAL_DST/81.19.82.3 application/x-javascript
1464247637.596     85 192.168.28.33 TCP_MISS/302 1964 GET http://target.smi2.net/init/? - ORIGINAL_DST/144.76.20.141 image/png

если прописать в бан лист так сказать vc.com то все нормально не открывается значит проверка проходит нормально, но почему тогда в логе идут одни ip адреса а не доменное имя как в http запросах

/etc/squid/squid.conf
     1  acl localnet src 192.168.28.0/24        # RFC1918 possible internal network
     2  acl SSL_ports port 443
     3  acl Safe_ports port 80          # http
     4  acl Safe_ports port 21          # ftp
     5  acl Safe_ports port 443         # https
     6  acl Safe_ports port 70          # gopher
     7  acl Safe_ports port 210         # wais
     8  acl Safe_ports port 1025-65535  # unregistered ports
     9  acl Safe_ports port 280         # http-mgmt
    10  acl Safe_ports port 488         # gss-http
    11  acl Safe_ports port 591         # filemaker
    12  acl Safe_ports port 777         # multiling http
    13  acl CONNECT method CONNECT
    14  dns_nameservers 192.168.28.3
    15  http_access deny !Safe_ports
    16  http_access deny CONNECT !SSL_ports
    17  http_access allow localhost manager
    18  http_access deny manager
    19  http_access allow localnet
    20  http_access allow localhost
    21  http_access deny all
    22  #прозрачный порт указывается опцией intercept
    23  http_port 192.168.28.15:3128 intercept options=NO_SSLv3:NO_SSLv2
    24  #также нужно указать непрозрачный порт, ибо если захотите вручную указать адрес
    25  #прокси в браузере, указав прозрачный порт, вы получите ошибку доступа, поэтому нужно
    26  #указывать непрозрачный порт в браузере, если конечно такое желание будет, к тому же в логах #сыпятся ошибки о том, что непрохрачный порт не указан=)
    27  http_port 192.168.28.15:3130 options=NO_SSLv3:NO_SSLv2
    28  #и наконец, указываем HTTPS порт с нужными опциями
    29  https_port 192.168.28.15:3129 intercept ssl-bump options=ALL:NO_SSLv3:NO_SSLv2 connection-auth=off cert=/etc/squid/squidCA.pem
    30  always_direct allow all
    31  sslproxy_cert_error allow all
    32  sslproxy_flags DONT_VERIFY_PEER
    33  #укажем правило со списком блокируемых ресурсов (в файле домены вида .domain.com)
    34  acl blocked ssl::server_name  "/etc/squid/blocked_https.txt"
    35  acl step1 at_step SslBump1
    36  ssl_bump peek step1
    37  #терминируем соединение, если клиент заходит на запрещенный ресурс
    38  ssl_bump terminate blocked
    39  ssl_bump splice all
    40  sslcrtd_program /lib/squid/ssl_crtd -s /var/spool/squid/ssl_db -M 4MB
    41  coredump_dir /var/spool/squid
    42  cache_dir aufs /var/spool/squid 20000 49 256
    43  refresh_pattern ^ftp:           1440    20%     10080
    44  refresh_pattern ^gopher:        1440    0%      1440
    45  refresh_pattern -i (/cgi-bin/|\?) 0     0%      0
    46  refresh_pattern .               0       20%     4320
    47  maximum_object_size 61440 KB
    48  minimum_object_size 3 KB
    49  cache_swap_low 90
    50  cache_swap_high 95
    51  maximum_object_size_in_memory 512 KB
    52  memory_replacement_policy lru
    53  logfile_rotate 4
в чем может быть проблема.

 ,

pvvking
()

RSS подписка на новые темы